news 2026/4/16 7:44:11

中央空调西门子1200PLC与TP900触摸屏模拟仿真T124,带视频,博途V15.1

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
中央空调西门子1200PLC与TP900触摸屏模拟仿真T124,带视频,博途V15.1

中央空调西门子1200PLC和TP900触摸屏模拟仿真T124,带视频,博途V15.1

最近在搞中央空调系统的PLC仿真,手头正好有套西门子1200PLC和TP900触摸屏的组合。T124项目这玩意儿看着简单,真动起手来还是有不少坑的,今天给大伙儿唠唠我的实操过程。

先上硬菜——硬件组态。博途V15.1里新建项目后,设备组态里直接拖个1214C DC/DC/DC的CPU。重点来了,TP900 Comfort屏的固件版本必须选V15,之前手滑选成V16直接通信不上,折腾了我半小时(别问我是怎么知道的)。

PLC程序这边搞了个温度控制逻辑:

A "启动信号" //触摸屏的绿色按钮 JCN _003 //没按下就跳转 L "设定温度" T "目标温度" //把设定值传给控制变量 _003: NOP 0 //温度比较模块 L "当前温度" L "目标温度" >=R = "制冷模式" //当前温度>=设定值时启动制冷 L "当前温度" L "目标温度" <=R = "制热模式" //当前温度<=设定值时启动制热

这段代码的精髓在比较指令的应用,注意这里用了浮点数比较指令(>=R和<=R),要是手贱用成整数比较,夏天制冷变制热那可就热闹了。实际调试时拿个30℃的设定值跑仿真,看到压缩机启停逻辑正常才敢往下走。

触摸屏这边整了个骚操作——动态颜色变化。在TP900的画面编辑器里,给温度显示框绑了个动画:

<AnalogDisplay> <ValueTag>当前温度</ValueTag> <AlarmColors> <Range Min="0" Max="20" Color="Blue"/> <Range Min="21" Max="25" Color="Green"/> <Range Min="26" Max="50" Color="Red"/> </AlarmColors> </AnalogDisplay>

这玩意儿实测比单纯的数值显示直观多了,温度一超限立马变红,机房老哥隔三米都能瞅见异常。记得把HMI变量和PLC的DB块对应上,我刚开始忘了在连接里勾选"同步变量",结果触摸屏显示全是问号,差点以为硬件烧了。

仿真环节才是重头戏。先开PLCSIM Advanced,把程序下载到仿真PLC,然后在HMI仿真器里加载触摸屏程序。这里有个骚操作:在仿真界面按Ctrl+Alt+S可以直接调出隐藏的通信设置,把IP改成和虚拟PLC同网段,比在博途里层层点选快多了。

调试时发现个坑爹问题——制冷制热模式切换有2秒延迟。后来查程序发现是DB块里的"目标温度"用了MOV指令直接传递,应该改用循环中断OB里的温度斜坡函数。改完后的效果丝滑多了,视频里能明显看到温度曲线过渡更自然。

最后说下视频录制技巧。用OBS同时捕捉博途窗口和仿真器界面时,记得把HMI仿真器的缩放比例调到100%,不然录出来的画面全是马赛克。重点展示温度从28℃降到24℃的过程,配合压缩机和风机的启停状态变化,观众一眼就能看明白控制逻辑。

折腾完这波最大的感悟就是:仿真时多利用博途的强制表功能,直接修改输入点状态比等触摸屏响应快得多。特别是测试极端工况时,直接给AI通道写个50℃的强制值,立马就能验证过热保护逻辑是否靠谱。

完整工程文件已传GitHub,需要的老铁评论区自取。下期准备搞个多机组联控仿真,有没有想一起肝的?评论区吱一声,人多的话我提前把物料清单整理出来。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/12 10:08:40

PyTorch-CUDA-v2.7镜像是否支持A100/H100?官方回应来了

PyTorch-CUDA-v2.7镜像是否支持A100/H100&#xff1f;官方回应来了 在AI基础设施快速演进的今天&#xff0c;一个看似简单的问题却可能让整个训练任务卡在起点&#xff1a;我拉的这个PyTorch镜像&#xff0c;到底能不能跑通H100&#xff1f; 这不是杞人忧天。不少团队曾满怀期…

作者头像 李华
网站建设 2026/4/16 7:41:24

PyTorch-CUDA-v2.7镜像能否支持Triton推理服务器

PyTorch-CUDA-v2.7镜像能否支持Triton推理服务器 在构建现代AI系统时&#xff0c;一个常见的疑问浮出水面&#xff1a;我们能不能直接用训练模型的那个容器——比如 PyTorch-CUDA-v2.7 镜像——顺手把 Triton 推理服务也跑起来&#xff1f;毕竟都是基于 PyTorch 和 GPU 的环境&…

作者头像 李华
网站建设 2026/4/14 5:48:59

如何通过SSH访问PyTorch-CUDA容器?详细步骤图解

如何通过 SSH 访问 PyTorch-CUDA 容器&#xff1f;详细步骤图解 在现代深度学习开发中&#xff0c;我们经常面临这样一个场景&#xff1a;一台远程 GPU 服务器上跑着多个实验任务&#xff0c;团队成员需要安全、高效地接入环境进行调试、训练和文件管理。虽然 Jupyter Notebook…

作者头像 李华
网站建设 2026/4/13 4:18:03

AI驱动的性能预测模型构建:测试工程师的效能革命

一、行业痛点&#xff1a;传统性能测试的局限 在持续交付的敏捷环境下&#xff0c;软件测试团队面临核心挑战&#xff1a; &#x1f4c9; 滞后性缺陷发现&#xff1a;性能瓶颈常在压测后期暴露 ⏳ 资源密集型测试&#xff1a;百万级并发测试消耗大量云资源 &#x1f4ca; 经…

作者头像 李华
网站建设 2026/4/16 5:43:05

如何将本地数据挂载到PyTorch-CUDA容器中进行训练

如何将本地数据挂载到 PyTorch-CUDA 容器中进行训练 在深度学习项目开发过程中&#xff0c;一个常见的痛点是&#xff1a;如何在不破坏环境一致性的情况下&#xff0c;快速启动 GPU 加速的模型训练&#xff1f;尤其是在团队协作、多项目并行或跨平台部署时&#xff0c;依赖冲突…

作者头像 李华