我花了过去两周的时间制作这个玩具编程语言。<p>我基本上是复制了 Go 的扫描器/解析器,并将语法修改为函数返回单个值。这使得可以正确使用 Result/Option 类型,并通过运算符传播错误。<p>我还希望能够使用简短的“类型推断”匿名函数,以便能够使用像 Map/Reduce/Filter 这样的函数,而不必使用 100 个字符来指定类型。
返回首页
一周热榜
Many iPhone users have shared Tweets reporting that they got an unsolicited "notification ad" from Apple Pay (Wallet app) (e.g. https://x.com/jbillinson/status/1937508135343649189 ). Apparently, the Wallet app in ios 26 (beta) has an option to "turn off" such ads (by toggling the "Offers & Promotions" in Wallet Notification).
一个用于管理和语义比较大型语言模型(LLM)提示的命令行工具。通过使用嵌入(OpenAI或本地)检测意义层面的变化,超越了文本差异的比较。该工具对于版本控制、测试以及持续集成/持续交付(CI/CD)工作流非常有用。
嘿,HN!<p>这个想法源于我无法购买到GPU,并且不断输给机器人和黄牛。我想利用这个机会看看我能在“氛围编码和设计”方面走多远。<p>最终结果相当不错!以下是一些幕后细节。在未来的博客文章中,我会详细介绍构建这个项目的幕后过程。<p>- 登陆页面是使用React/Typescript/Tailwind.css构建的(我之前从未使用过)<p>- 仪表板基于Evidence.dev,使用Markdown中的SQL查询,并结合一些自定义的JavaScript进行图表格式化(同样是我之前从未使用过的 :)<p>- 能够将这样的想法从脑海中变为现实,原本需要我花费数月的时间在Stack Overflow和Google上学习React/Typescript/JavaScript,但这次只花了大约一个月(每天1-2小时)。<p>* “氛围编码”常常被误解,即人们有时认为这是一种魔法药丸。从构建这个项目的经验来看,我可以告诉你,不能像精灵的愿望那样轻易让网站变为现实。仍然需要付出相当大的努力来引导大型语言模型(LLM),在出现问题时进行调试,需要对设计有一定的想法,以及如何让它看起来好看,进行多次迭代。从第一次迭代到最终迭代之间,可能进行了大约500次迭代。
大家好,我是WFGY的创始人——一个针对大型语言模型(LLMs)的语义推理框架。
在开源之后,我进行了全面的技术和价值审计,意识到这个引擎的价值可能在800万到1700万美元之间,基于人工智能模块的许可规范。如果作为平台核心的一部分嵌入,估值可能超过3000万美元。
现在已经来不及撤回了。所以在这里——完全免费,基于MIT协议开源。
---
### 这个框架解决了什么问题?
目前的LLMs(甚至是GPT-4及以上版本)缺乏*自洽推理*。它们在以下方面存在困难:
- 不同回合之间的逻辑碎片化
- 缺乏内部反馈或自我校准
- 没有模块化的思维单元
- 对抽象语义空间的控制较弱
WFGY通过一个结构化的循环系统直接在*嵌入空间*内进行操作,解决了这些问题,允许:
- *自闭合的语义推理循环*(通过求解循环实现)
- 使用∆S / λS场量化器进行*语义能量控制*
- *模块化插件逻辑单元*(BBMC / BBPF / BBCR)
- *推理分叉与重组*(支持在一个会话中多种视角)
- *纯提示操作*——无需模型黑客或训练
简而言之:你只需提供一个PDF和一些任务框架,LLM就会表现得像是内部运行着一个“推理内核”。
---
### 这有什么重要意义?
嵌入空间通常被视为一个被动的编码区域——而WFGY将其视为*一个可编程的领域*。这颠覆了传统的范式。
它使任何LLM能够:
- *自我诊断内部不一致性*
- *在长链条中保持状态*
- *导航抽象领域(哲学、物理学、因果关系)*
- *在过程中重构自己的逻辑策略*
所有这些都以完全语言本地化的方式实现——无需微调或插件。
---
### 试试吧:
无需注册。无需SDK。无需追踪。
> 只需上传你的PDF——推理引擎便会激活。
MIT许可。完全开放。没有附加条件。
GitHub: github.com/onestardao/WFGY
我每天吃方便面——并刚刚开源了一个价值3000万美元的推理引擎。
如果你觉得有趣,欢迎反馈或给GitHub加星。
经过五年的努力和奋斗,我们的初创公司终于走到了尽头——我们的产品即将关闭。我不想提及具体名称,以免听起来像是在做宣传。可以说这是一种网站建设工具。
我们曾尝试(但未成功)出售代码库。与此同时,我们一些最忠实的用户现在希望我们将其开源。我内心的一部分觉得,这将是一个有意义的方式来回馈用户,并确保这个项目不会完全消失。
然而,我也能预见到许多技术和法律上的复杂问题,更不用说潜在的维护负担了。
这里有没有人经历过类似的情况?有什么经验、遗憾或建议吗?
非常感谢大家的帮助!
(使用了人工智能来改善拼写)
嗨,HN:
我正在开发一个名为 QSS(量化相似性搜索)的向量搜索引擎。它是用 C 语言编写的,探索了将嵌入向量每个维度量化到 1 位的想法。它使用 XOR 和 popcount 进行快速近似搜索,随后使用原始向量的余弦相似度进行重新排序。
主要目标是看看在不牺牲太多搜索质量的情况下,量化可以推得多远,同时在内存使用和速度上获得显著提升。
工作原理:
嵌入向量被量化为每个维度 1 位(例如,300D → 300 位 → 约 40 字节)。
搜索使用按位 XOR 和 popcount(汉明距离)进行。
短名单使用原始(浮点)嵌入的余弦相似度进行重新排序。
支持 GloVe、Word2Vec 和 fastText 格式。
目标:
分析量化与搜索准确性之间的权衡。
测量潜在的速度和内存提升。
探索这种方法在更大数据集上的扩展性。
初步测试:
到目前为止,我只进行了几次小规模测试,但早期的迹象令人鼓舞:
对于某些查询(例如“hello”、“italy”),前 30 个结果与全精度的余弦搜索匹配。
在 Word2Vec 嵌入上,量化管道的速度比标准的余弦相似度循环快了多达 18 倍。
这些结果目前还只是个案——我提前分享这个项目是为了在深入基准测试之前获取反馈。
其他说明:
目前,单词查找是线性且未优化的——重点在于相似性搜索逻辑。
测试是在一台 2018 年的 iMac(3.6 GHz Intel i3)上单线程进行的。
如果你对向量搜索、量化或低级性能技巧感兴趣,我很想听听你的想法:
你认为这种激进的量化方法在大规模应用中可行吗?
你是否有其他快速近似搜索技术推荐探索?
项目仓库在这里:https://github.com/buddyspencer/QSS
感谢阅读!
为了提供一些背景信息,我目前是一名软件工程师,我觉得我的工作总体上是愉快的,但我也感到自己没有学习到新技能,可能在行业中逐渐落后。目前我并不打算寻找新工作,但我希望每天做一些事情来保持自己的敏锐度。<p>在这个领域,当前值得关注的长期发展方向是什么?