想做一个工业数据监控的 B/S 系统,服务器定时采集底下硬件的数据,用户可以通过浏览器访问服务器看到实时数据。现在 flask 服务器架好了,底下数据采集的 py 脚本也写好了,但我不知道如何能让服务器一启动就一直运行那个定时采集数据的脚本,然后这个采集上来的数据应该怎么传递?
|  |      1ppwangs      2017-04-21 14:53:54 +08:00 我当时也有和你差不多同样的问题,然后用搜索引擎解决了 | 
|  |      2zhuf      2017-04-21 15:01:37 +08:00 crontab | 
|  |      4iPhone8      2017-04-21 15:07:02 +08:00 二楼说的很明确了 | 
|      5mlyy      2017-04-21 15:09:35 +08:00 via iPhone celery ,注意搜 beat | 
|  |      7HypoChen      2017-04-21 15:16:13 +08:00 celery beat | 
|      8mzmxcvbn OP 关键不是定时,定时在数据采集的脚本用循环就好了。关键是这个脚本要跟着 web 服务一起起来,而且这个拿到的数据怎么传给服务器。 | 
|  |      9F281M6Dh8DXpD1g2      2017-04-21 15:27:13 +08:00 @mzmxcvbn 写个 shell 脚本启动服务器的时候一起调起来,数据写数据库或者随便啥 store,前端展示的时候去读 | 
|      10mzmxcvbn OP @mlyy 我想问一下 celery 能让一个 while true 死循环的任务一直运行吗,让后把收到的数据存在一个地方(循环一次更新一次), web 服务器需要的时候再从那里读这个数据 | 
|      11mzmxcvbn OP @HypoChen 我想问一下 celery 能让一个 while true 死循环的任务一直运行吗,让后把收到的数据存在一个地方(循环一次更新一次), web 服务器需要的时候再从那里读这个数据 | 
|  |      12HypoChen      2017-04-21 15:48:54 +08:00 @mzmxcvbn celery beat 支持每隔一定时间(精确到秒)便执行一次任务,文档有写。至于数据,直接扔数据库不好么, web server 直接去数据库拿 | 
|  |      13wwqgtxx      2017-04-21 16:39:05 +08:00 via iPhone 最简单的还是开个单独的线程 while True 跑,然后把结果丢进数据库或者消息队列 | 
|      17modm      2017-04-21 18:23:41 +08:00 via iPhone apscheduler | 
|      18rookiebulls      2017-04-21 19:43:07 +08:00 via Android apscheduler+1 | 
|      19kingsonl      2017-04-21 22:44:31 +08:00 apscheduler+1 | 
|  |      20clino      2017-04-21 22:47:17 +08:00 via Android jenkins buildbot | 
|  |      21freestyle      2017-04-22 00:10:06 +08:00 Windows 的话写个 bat/vbs 放开始菜单启动文件夹   Linux 的话选择就多了 楼上的都可以 crontab  celery apscheduler 另外实时显示数据用 websocket 优于轮询 | 
|  |      22TJT      2017-04-22 00:31:35 +08:00 apscheduler +1 , uwsgi 记得加  enable-threads ,我现在就是这么干的 | 
|      23mlyy      2017-04-22 00:38:14 +08:00 @mzmxcvbn 按你的意思,我只需要客户端发 request 的时候能 response 那个时刻的真值? app.before_request 。如果采集速度够快这样就行。采集速度慢的话, celery 之类的后台挂个 beat ,一直写到数据库之类的地方,你 request 的时候去数据库拿就行(既然采集有延迟,我的理解数据有一点延迟没关系) | 
|      24lalalakakaka      2017-04-22 01:51:57 +08:00 居然做了和楼主同样的事情。 而且我懒得学新东西,不想引进去一大堆依赖库,搞的在内网机器很难部署 我的办法是手写了个守护进程( python 程序),用 subprocess 打开所有子进程:收集器、 web 服务、数据库进程、看门狗之类的。 然后用个 bat 文件( windows )启动这个守护程序。 至于数据传输是用 redis 做数据中间件,如果业务毕竟简单的话,直接 redis 做数据持久化就行。 |