V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
SGL
V2EX  ›  问与答

批量剪藏的需求, 使用 Obsidian 或者直接爬虫?

  •  
  •   SGL · 41 天前 · 939 次点击
    这是一个创建于 41 天前的主题,其中的信息可能已经有所发展或是发生改变。
    楼主出于某种目的(先不论这个目的合理不...),想要把一个文档网站中的所有文档使用 Web Clipper 全部剪藏到 Obsidian 中去。保存下来的格式是 Markdown 。

    至于什么文档网站,可以参考一些官方包,或者工具之类的文档那种网站形式。

    但是,手动的一篇一篇点开,然后用 Web Clipper 插件逐个去点击,这个效率太低也太蠢了。

    所以,两个问题:
    1. Obsidian 使用 Web Clipper 剪藏有没有自动化的批量操作技巧或者方式?
    2. 或者,有没有 python 或者其他的爬虫工具能够达成保存一个文档网站的文档为 markdown 的方式的目的。这样保存后直接导入 Obsidian 也是一样的。

    python 爬虫我搞过一些比较简单的逻辑去爬取,根本爬不到,我感觉如果想用 python 解决,估计我得投入一部分经历先掌握一下中阶或者高阶爬虫技巧。目前不想投入,想找个无脑一点的方案。
    2 条回复    2025-05-11 22:28:31 +08:00
    dsg001
        1
    dsg001  
       41 天前
    小量手工,大量爬虫

    用 Python Selenium ,不用管渲染问题
    VirSnorlax
        2
    VirSnorlax  
       40 天前
    首先,没用过 ob 和 web clipper ;其次,对于批量操作我一般用 rpa 来解决
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2440 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 17ms · UTC 11:01 · PVG 19:01 · LAX 04:01 · JFK 07:01
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.