跳过正文

Cloze-Reading: 让你拥有完形填空般的阅读体验

月半杰瑞
作者
月半杰瑞
软件工程师·独立开发者
目录

“看完一篇文章,感觉就和没看一样”

如果你也有这种感觉,这个插件或许能帮到你。这是一个基于LLM(大语言模型)辅助阅读的浏览器插件,可以把当前的网页文章变成完形填空。比如在看这篇LLM领域经典论文《Attention is All You Need》的论文解读,就可以一键生成题目,然后边看边做

做完后提交可以看答案,插件会根据是否和原文一致计算得分

核心理念是通过这种填空的方式,在阅读过程中增加一点摩擦,来帮助你加深阅读时的印象

使用流程
#

插件开源,目前已上架Chrome/Edge扩展商店,搜索cloze-reading即可安装体验,也可点击Google扩展Edge扩展直达

如何使用?

image-20260123180058858
  1. 在文章页面点击扩展图标,打开右上角浮动面板
  2. 选择 API Provider / 模型提供者,填写对应的 API Key / 模型名。(需自备API,目前支持Ollama、AI Studio和Qwen)
  3. 点击 开始生成 / Start 按钮
  4. 在正文中直接选择答案,点击 提交答案 / Submit 查看结果和解析
  5. 点击 恢复原文 / Restore 可以还原整篇文章

灵感来源
#

面对"看完一篇文章,好像就和没看一样"这个问题,感觉还是看的过程过于丝滑,眼睛动了脑子还没跟上。都说要“带着问题去阅读”,但这个“问题”也不是那么好想的,还有什么轻量一点的方法可以让脑子多停留一会儿?

多年应试教育的拷打让我想到了完形填空,以前学英语做完形填空,会反复的推敲和斟酌上下文,然后选出一个合理的答案,这样的小摩擦似乎是会比眼睛简单过一遍要更能理解原文。于是很自然就诞生这样的想法,能不能把在看的每一篇文章都变成完形填空!

以当前的互联网内容生产速度,人工出题的方式基本不可能,依托技术手段,可能要用到一些复杂的NLP算法去分词,然后识别关键词,即便识别出来,生成具有迷惑性的干扰项应该也不简单,对于没算法背景的人来说,这也属实天方夜谭

好在,现在有LLM,这个想法似乎有了可能。既然AI能很好的实现全文摘要,那为何不让AI也试试出题?抱着这样的想法,Vibe Coding出了这个插件

LLM应用开发体感
#

之前学习《从零开始构建智能体》,了解到LLM应用开发,本质上就是在Prompt中要求LLM根据特定格式输出内容,然后代码里解析这个格式,提取内容进行处理。

所以这个插件开发过程也不复杂,其实就是全文识别,丢给LLM让它出题,最后在原文中匹配关键词,然后做UI交互。整体效果取决于模型本身有多“听话”,能不能按特定格式要求返回。

强烈建议LLM应用开发都直接用云服务的API。 一开始不懂事,高估了16G M4 Mac Mini的机器性能,用Ollama部署qwen3:8b来验证效果,差点因为生成速度太慢放弃这个idea(文章都看完了,题目都还没出来)。后来尝试了下用云服务的API,同一篇文章总体耗时大概从7分钟缩短到1分钟,模型更强出题率也高,虽然觉得还是有点慢,但通过分批处理,也能让出题速度比阅读的速度快,长文阅读的体验会好很多

关于API,意外发现阿里Qwen API的新人免费额度真的量大管饱,几乎每个模型都有100M token随便用,开发期间用qwen-turbo和qwen-plus反复调试,调到现在还算满意的状态后也还剩很多

而Google AI Studio里的免费额度,一分钟居然只能请求5次,一下子就超了,连一篇长文都处理不完

因为qwen目前能很好的满足开发和使用诉求,其他厂商的API就没有测试了,所以目前插件也仅支持Ollama、Qwen、Gemini,后续看情况可能会支持更多

关于LLM应用的未来
#

从应用开发的角度,现在对LLM不太满意的点还是生成的速度,毕竟不是所有场景都追求“高精尖”的,像cloze-reading这种场景,并不追求90分的质量,如果可以更快,只有60分也ok。不过以现在AI惊人的发展趋势,说不定再过一两年就能变得又快又好

如果真能更快,很多实时互动场景,都可以像cloze-reading这样把看到的内容都用LLM来重塑一下,感觉还蛮有发展空间的。