这两年,每天需要面对大量来自公众号和即刻等信息流,有点对 ai 信息过载了
经历过一段时间探索,我逐渐形成了一套自己的 ai 信息处理流,在这里分享下,希望大家能有所启发
我的信息处理流主要分为三个流程:
1. 信息收集
各种地方(公众号、即刻、小红书)的内容放到一起:
https://imgur.com/a/eMjovDA公众号这边 ai 相关主要推荐:腾讯研究院、极客公园、InfoQ 、特工宇宙、MindCode
即刻这边 ai 信息流主要推荐:AI 探索站
2.信息过滤和粗读
用固定的阅读模版来预处理一遍 ai 文章(目前用的是深读,可以自定义提示词):
第一个:用平台本身开放的:ai 信息值不值得读
第二个:配置一个自己的提示词(赛道分析:介绍下所属的 ai 赛道)
第三个:配置一个自己的提示词(核心论点:用不超过三句话,总结文章的核心观点和结论…)
我的邀请码链接:
http://deepread.aiagentool.com?invite_code=2fuqh42v3.我这边精读和二次处理
如果值得读,就存到我的笔记里面
笔记里面这样处理:
保存处理后生成的结构化报告,然后自己快速精读一遍,记录有价值的信息