浙大学生创业,求各位大佬指点

5 天前
 song3286791241
我自己突发奇想,觉得和 ai 对话的时候总感觉不会说话,问出来的效果也不同,我就想着能不能弄一个可以推测你真实想法的 ai 提示词优化工具,和导师说了之后,也表示赞同了,我就联合别的专业学生,我们两个人一起弄了一个网站,目前还处于内测阶段,都是免费的,各位大佬帮忙看看,感觉体验怎么样,有没有市场机会



网站: https://xtang.dpdns.org

不用登陆也可以直接免费使用
6536 次点击
所在节点    分享创造
86 条回复
benfafa
4 天前
Gemini API 调用失败: Error code: 401 最新版 macOS edge 浏览器
dosmlp
4 天前
想法挺好,但不适合创业,点太小,很容易被豆包这类优化了
frankies
4 天前
尝试了下,感觉有的被歪曲理解了,可能是思维链推理还需要优化。chatGPT 的推理选项,特别是其自动记忆能力,貌似鲁棒性更好,提问触发记忆很丝滑无感。
silypie
4 天前
门槛比较低,随便写一个优化 prompt 的 prompt ,就能实现
xxdd
4 天前
我写了个 红烧肉 我是想学学红烧肉怎么做,但是提示词怎么一大串小作文。
blakezhaothinks
4 天前
没啥门槛,而且有些模型厂商配套有类似的功能,和自家产品集成度更高。
你这个,我要先到你的网站上优化下提示词,再到其他的模型中进行对话,来回倒腾直接劝退了。
做个插件,集成到模型厂商的输入框上,给个按钮一件优化,可能会有些用户,但是收费的话我个人不太看好。
chen27
4 天前
个人觉得玩一玩可以,依托于这个创业赚钱可行性不大。

prompt engineering 这件事情主要是用于弥补 llm 基座本身的不足,使得 llm 的回答更加优秀。这件事情热度很高是 llm 刚出的时候的事情了,当时的 llm 服务还很差,需要 C 端用户自己做这件事情,才能获得很好的回答。但是现在这件事现在已经不需要了,原因有两个:
1. llm 模型本身在进步。Tick-Tock 上升 (Data 和 Algorithm) 使得 llm 现在已经很强了,虽然离真正的 intelligence 还有一段距离,但是作为一个 assistant 已经够用了。现在 llm 的最大痛点是 hallucination ,这个不是能用 prompt engineering 解决的。
2. 现在 llm 提供商在开放 2C llm 服务时,本身就把它做成了 agent 。它内置了 prompt enhancement ,并且做了很多可用的 function call 。

所以说,你目前这项工作,实际上已经意义不大了。C 端用户自己写更好的 prompt 去获得更好的回答,这件事情已经被 llm 提供商解决了。现在想要获取更好的回答,只需要提问者具备更好的逻辑思维能力,提出人类能理解的足够有逻辑条理的要求就足够了。

再次说到这个产品的使用场景,它一定是 2C 的。你产品增加了用户的操作步骤,但价值增量有限。用户不会费力去做一件意义不大的事情的。

想创业的话,想清楚赚谁的钱。是赚 C 端用户的钱,还是 AD 的钱。前者要求你的产品真的足够好用,能够显著提升生产力,让用户缺你不可,才能从天生不爱在互联网产品上付费的人身上赚到钱。后者则需要你的产品拥有足够多的日活,也就是它足够好用且方便,让用户能够记住你的产品并且每天使用。就你项目的目前形态来看,两者都不可行。
chen27
4 天前
@chen27 #67 省流:自己玩玩可以,糊弄老师也可以,但是赚不到钱。
AnotherSola
4 天前
目前只有优化提示词这个功能么?我倒是有一个想法,你可以让 AI 去引导用户,多收集几轮用户的想法,然后再生成提示词,粗略的根据「我想学化学」这种做出来的提示词还是太泛化了。
比如我写了一个「我想学吉他」,他给的结果就是很基础的一些吉他知识和课程的提示词。
理想效果是:
用户:我想学吉他
AI:好的,了解到您的需求,请问您之前有吉他经验么?
用户:有的,我大概会一些简单的弹唱
AI:请问你的学习目标是什么?
用户:达到可以随心所欲即兴弹奏的水平
AI:生成中,巴拉巴拉,最后的结果可能就是带一些乐理性质,视唱等方面的学习方案和吉他进阶的提示词。
我觉得这种可能会更有帮助一点。既然你想做的是对「不知道如何与 AI 表达需求的人」提供提示词,我觉得可以在这个基础上再进一步,用 AI 来做引导来获得更准确的用户想法。
cdlnls
4 天前
感觉好像并没有解决什么实际的问题?大模型刚出来的时候可能有点用,但是现在系统提示词已经没那么重要了,在没有系统提示词的情况下大模型也可以发挥得很好。
hous
4 天前
去年这个时间点还有点用,随着 deepseek-r1 之类推理模型普及后 llm 已经能很好识别提问意图了,提示词优化对于普通人必要性越来越小
duxiansen
4 天前
试了下,就是类似于 think 的感觉。让它优化学习 XX 的教程,给出的提示词限制太多了,直接限制了天数、学习的具体内容,但又不合理,反而不如直接问
18k
4 天前
啊这。。。
Merlini
4 天前
现在 AI 已经会主动提问和引导用户了,prompt 的重要性越来越低,多轮交互可以弥补这些
simo
4 天前
界面上,操作按钮尽量简化,既然用你这个站了,那肯定是不会或者不愿思考、组织提示词的。建议只保留一个提交按钮。(快捷键组合别直接写出来,点击一下或者回车在其他 AI 站点有了用户习惯,不用特意提示)
意图(思考、绘画、论文、商业)可以通过多一轮对话或者根据提示词直接判断意图。(原则就是让懒用户少操作得到结果)
提示词出来后,可以通过浏览器插件或者做个辅助软件,直接打开对应的三方站(需要登录的,登录后),自动填入提示词。
lostexile
4 天前
好东西,我前几天也在做这个,不过是针对艺术行业的,文生图提示词的梳理。你可以找个行业方面深入一点,盈利应该不难。
song3286791241
4 天前
感谢所有 V2EX 朋友的反馈,每一条拍砖都价值千金。大家的建议让我深刻认识到,Web 形态的通用优化器不是未来。我会继续学习深造,沉下心来仔细去学习真正对人们有帮助的技术,再次虚心的感谢各位大佬
loryyang
4 天前
这个东西,你有没有思考过一个问题:提问者可能自己都没想清楚自己想什么
你完全不知道提问者的任何背景信息,纯靠瞎猜来优化提示词的方式就是虚空造 prompt
从理论上来说,真正行得通的应该是不断生成提问,让用户补充信息,最后做一些 format ,来生成适合大模型的提示词
但是如果产品是这样交互的话,有两个问题:
1. 绝大部分用户会感觉繁琐,不会配合,现在网上就是追求短平快,让用户不断地回答问题,没几个能坚持到最后
2. 如果用户有这个毅力,理清楚自己想要的,那么他也没那么需要你的产品,他完全可以自己去学习写 prompt
chrosing
4 天前
你都已经做了这个了 为什么不直接中译中 生成用户想要的结果呢? 我用了你的网站生成了提示词 然后复制提示词去其他 ai 软件去粘贴? 直接一步到位 直接生成结果
NoobNoob030
4 天前
idea 本身是门槛不高的小工具,而且针对的场景很有限,与其说是痛点,不如说是痒点。有点像做了一个漏勺,简单方便好用才是核心,做的好不好看只是添头,这种项目很像学校里互联网+创业比赛的那种项目

而且现在各大平台 LLM 都支持深度搜索,需求会越来越弱,提示词这块不建议死磕

如果真想运营下去,可以朝着工具集 / 知识集的方向发展,沉淀一些精品内容和工具,在沉淀内容的同时多学习,接触的东西多了,对 AI/产品/商业 理解会更深

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1140377

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX