|  |      1litchinn      291 天前  2 我发现之前就 star 过了,是不是上过 trending ,居然是本站大佬的作品,厉害 | 
|      2guotie      291 天前  2 巨佬 | 
|  |      4MoGeJiEr      291 天前  1 相当屌 | 
|      5zhixiao      291 天前 请教一下,是不是必须配合 server 使用,如果我只想使用 tabby vscode 插件+deepseek api 行不行呢?刚刚配置失败了 | 
|  |      6ikw OP @zhixiao 必须要配合 Server 使用的,Server 在 LLM API 之外会做很多事情,就像读取文档,代码库,然后根据这些信息,再给你补全和生成代码。 配合 Server 也不复杂,目前 release 里就是两个二进制文件,放到 PATH 下的目录里就好,很容易就能跑起来 | 
|  |      8ikw OP @zhixiao #7 Copilot 确实是强劲的对手,我们算是互有优势吧,一直在争取有一天能说我们比 Copilot 强 deepseek 的话,主要说的是模型吧?我们本身也是可以用 deepseek 的模型的 | 
|  |      9cloudzhou      291 天前 我之前甚至考虑过一种实现,就是配合麦克风、当前页面: 当我按某个快捷键,说明开始和 ai 交互,开始语言输入,然后说出指令,就自动提示代码 考虑到编程很多是繁琐的细节,这一块能完成,效率简直 x3 | 
|  |      10yh7gdiaYW      291 天前  12 话说为啥要取名 tabby ,已经有一个 6 万 star 的 tabby 了,搜索时结果混淆在一起有点蛋疼 | 
|  |      114UyQY0ETgHMs77X8      291 天前 @cloudzhou 技术部秒变客服部 | 
|  |      12cloudzhou      291 天前 @q1102389095 也别这么说,也可以说技术人员更高阶了,hhh | 
|  |      134UyQY0ETgHMs77X8      291 天前 @cloudzhou 我说的是有了这个以后技术部从原本敲代码方式转变成叨叨叨了,这样降噪等问题以及说错话还有方言、感冒带鼻音等都要处理,前段时间我感冒了说的很多东西不准确,我的智能家居开始已读乱回 | 
|  |      14cloudzhou      291 天前 @q1102389095 我自己用了 wx ,感觉准确率可以,对于编程来说,术语、特定语言在一个小范围,理论上更加精准才对,并且,局部的不精准,不影响全局的理解。 如果那一天编程到了这一步,编程的方式都有些变化了 | 
|  |      17cloudzhou      291 天前  1 @tars13344 如果都用语音识别,确实有些傻瓜瓜,但是考虑到语音识别的准确性、快速响应进步,在一些场景确实可以的,我不大使用 AI 一个原因是,有时候打了一大段字描述一个问题,来回的时候(各种微调)我都可以自己写代码了 | 
|  |      18magzza      291 天前 第一眼以为是终端软件 tabby 。 | 
|  |      19ikw OP @cloudzhou #9 抛开语音识别,并且把当前页面限制到 VSCode ,目前的实现其实就是类似的效果,当然,一些更好的体验其实也受限于当前 LLM 的能力,实际做下来体验不如预期,还得等 LLM 再进化 | 
|  |      211016      291 天前 我之前在 vs code 里面使用过 tabby ,我也不知道啥原因感觉不太“聪明”的样子。后来我就没用了。 现在才知道要配置一些东西才好用.... | 
|  |      22nagisaushio      291 天前 via Android @cloudzhou 什么 tnt | 
|  |      23SilenceLL      291 天前 同感,看成终端软件了,以为终端里面加了 ai 。 | 
|  |      24Q81vlT1d47v4fq42      291 天前 能部署到 NAS 么 | 
|  |      25yh7gdiaYW      291 天前 @zwpaper 但 google 的搜索结果官网是"Tabby - Opensource, self-hosted AI coding assistant",Github 的仓库也是"tabby",如 23 楼所说真的很容易以为是 tabby 加了 ai | 
|      26hujnnn      291 天前 之前就 Star 了, 好奇的是付费用户多么? 🐶头保命🤣 | 
|      27QlanQ      291 天前 以前就试过,感觉本地部署还是很占资源的,Mac 用不起 | 
|  |      29liuliuliuliu PRO 有没有和其他助手的对比? | 
|      30xfn      291 天前 感觉 continue 比较像,和 continue 相比有什么优势么? | 
|      31crackidz      291 天前 之前看到了,确实挺不错的 | 
|  |      32FightPig      291 天前 之前才看过,没想到作者居然在 v2 | 
|  |      34ikw OP  1 @FcukYouTony 肯定是可以的,但是 NAS 的话,一般得用远端的 API 了,或者 NAS 本身能力比较强大也是可以的,毕竟还是依赖 LLM 的能力 | 
|  |      36ikw OP @liuliuliuliu @xfn 我们目前没有对比的文章,但是从个人体验上说,Tabby 会获取更多的上下文,包括编辑器里能获取的,还有 Server Side 保存的,在 Chat 或者补全的时候都会有更高的命中率 | 
|  |      39xdeng      291 天前 要英伟达的显卡? | 
|      40Echoleung      291 天前 via Android 本地无显卡,怎么使用现有模型 api 作为远端服务呢?有教程吗,windows 的? | 
|      41jonsmith      291 天前 star 了,等有显卡了试试 | 
|  |      42Liftman      291 天前  1 挺好的,适合我们自建。我之前还在烦呢。因为 cursor 跑 ollama 比较麻烦,每个人都配置一下也挺烦,而且 cursor 也不是每个人都首选。 这个就不错。 | 
|  |      43TimPeake      291 天前 按教程 docker 部署完毕,   http://localhost:8080 或者指定其他端口,无法打开 ,什么情况 | 
|  |      44ikw OP @xdeng @Echoleung @jonsmith 本地有显卡是最好的,可以本地跑模型,尤其对于企业来说,数据还很重要的。 没有显卡的情况下,Tabby 也支持使用远端的模型 API ,针对不同的厂商,我们也都有对应的文档,可以参考一下,例如最近很火的 Deepseek V3 和 Deepseek Coder 都可以通过 Deepseek 的 API 运行: https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/ | 
|  |      45ikw OP @TimPeake 得看一下具体的日志和报错,之前碰到过的 docker 绑了 IPv6 ,还碰到过 localhost 解析异常,或者 GPU 异常,之类的问题 或者各位有条件的话,可以加一下我们的 Slack ,我们可以更好的当好客服工作,哈哈 https://links.tabbyml.com/join-slack-landing | 
|      46a174871      291 天前 如果可以先用 Gemini 体验一下就好了,刚刚看了下文档似乎没提到 Gemini | 
|  |      48Rrrrrr      291 天前 如果在本地跑,还得用你们的 api 吗?有些公司不让上网的,所以就用不了? | 
|      49a132811      291 天前 允许将整个本地项目代码加入上下文吗?或者指定本地的几个目录的代码作为上下文 | 
|  |      50TimPeake      291 天前 @zwpaper #45 可能我电脑性能不太行,200 秒左右启动成功, 刷新可以打开了。安装了 cuda toolkit,  试了下 tab 补全的时候 3050 显卡瞬间飙升到 70%+使用率 | 
|      51Alias2023      291 天前 能本地部署了,这个怎么还需要订阅 | 
|  |      52JZen      291 天前  1 牛逼,先点 Star ,等会部署玩玩 | 
|  |      53looplj      291 天前 很早就看到了,没想到是国内厂商,支持。 | 
|  |      55ikw OP @Rrrrrr "我们的 API" 就是指的本地运行的这个 Server API ,公司不让上网指的应该是不让上互联网吧,公司内网部署 Tabby ,然后内部都访问这个 API 就行 | 
|  |      58ikw OP @ZSeptember 哈哈,互联网时代,主要还是看产品 | 
|      60jlak      291 天前 via iPhone 这种是不是很吃 token | 
|  |      61abeholder      291 天前 只能使用本地的模型吗 ,能接其他 LLM 的 API 么? | 
|      62cyhulk      291 天前 膜拜,先 star | 
|  |      64abbottkhan399      291 天前 厉害,点个 star 部署试试 | 
|  |      65ScjMitsui      291 天前  1 厉害的!我同学是你们中一员,在朋友圈宣传过几次 | 
|      66Remember      291 天前 你这跟哪个 ssh 客户端重名了呀,我吓一跳,以为那作者说中文了。 | 
|      67a174871      290 天前 @zwpaper #47 感谢回复,您提到 Gemini 只有 chat 模型,是因为 tabby 还需要其他模型吗 比如 Embedding ?我印象中 Google 的 AI studio 中提供的 API 和 OpenAI 中提供的都是只有 chat 吧? | 
|      68lovestudykid      290 天前 有点不太理解,其他一些工具不都是插件+api 就行了么,为什么还需要一个单独的程序 | 
|      69pigzzz      290 天前 还以为是那个 terminal | 
|  |      72isSamle      290 天前 怎么没有中文文档😂 | 
|      73astkaasa      290 天前 已 star, 今天去试用一下, 有没有和 CodeGPT 跑本地模型的对比? | 
|  |      74ikw OP @a174871 #67 是的,全能力需要 3 个模型,Chat 、Completion 、Embedding , Google 有 Chat 和 Embedding OpenAI 三个都有,只是 Completion 已经 Deprecated 了 | 
|  |      75ikw OP @Rrrrrr #59 我个人的经验是 codestral 22b 一个模型对于 Completion 和 Chat 处理得都挺不错的,显卡能跑起来这个模型的话,体验上应该就很不错了 | 
|  |      77zzzlight      290 天前 star 好久了  看到你发才知道原来是本站佬的作品 | 
|      78sanquan      290 天前 via iPhone 巨佬你好 | 
|      79astkaasa      290 天前 vscode 和 intellij 里面的 chat 页面出不来, 代码补全是正常的 | 
|      80astkaasa      290 天前 @astkaasa 这样启动的 tabby serve --device metal --model Qwen2.5-Coder-7B --chat-model Qwen2.5-Coder-7B-Instruct --port 10000 --no-webserver | 
|      81a174871      290 天前 @zwpaper #74 感谢回复,那能否像 Dif 一样,可以分别配置 chat 、Completion 、Embedding 所使用的模型,比如我可以把 Embedding 使用本地部署的,而 chat 使用 Gemini 呢? | 
|  |      83twohappy      290 天前 屌啊,相当屌 | 
|  |      84devzhaoyou      290 天前 牛叉 留名 | 
|  |      85ikw OP @a174871 #81 可以的,参考这里几个不同的厂商,可以组合使用,也可以本地远端组合使用 https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/ | 
|  |      87monkeyWie      289 天前 via Android 没懂这个和 cline 插件有啥区别 | 
|      90weank      289 天前  1 牛的👍,最近也在企业内部做代码生成工具,看了下 repo ,感觉能学到很多 | 
|      91weank      289 天前 但是 rust 是一个门槛,无论对开发者还是想要接入服务的企业来说,存在一定的障碍。 | 
|  |      92ikw OP @weank #91 语言只是实现途径之一,用 Rust 也是考虑生态之后的选项,实际开发体验下来也都挺好的,我也知道 Rust 的花边新闻,不过最终产出才是中最要的。 对于开发者,主要是有一个上手门槛,但是现在像 Tabby 这样的助手出现,也能很大程度的降低这个门槛。 对于企业,主要还是看产品,一般也不会过多关注具体的实现方式 |