返回首页
一周热榜
我制作了一个身体运动游戏。你可以在客厅里跳跃以躲避熔岩。<p>这个游戏是使用three.js和mediapipe计算机视觉技术创建的。<p>你可以在这里玩这个游戏,它可以在网页上运行,无需安装或下载:<a href="https://www.funwithcomputervision.com/demo7/" rel="nofollow">https://www.funwithcomputervision.com/demo7/</a>
我正在尝试找出使用Claude Code的正确和有效的方法。到目前为止,我的体验并没有与社区中许多人所赞誉的相匹配。
通常,它要么生成复杂的实现,而明显存在更简单的解决方案,要么输出的代码充满了错误——尽管它自信地声称是正确的。我在想是不是我没有正确使用它。
以下是我当前的工作流程:
- 我首先与Gemini沟通,逐步澄清和完善我的需求和设计。
- 我请Gemini总结所有内容,然后我会审查并修订该总结。
- 我将最终版本粘贴到Claude Code中,使用计划模式,请它生成实施计划。
- 我审查该计划,进行调整,然后让Claude Code执行。
- 长时间等待……
- 审查Claude的输出并清理混乱。
对于重构和修复错误,我通常会提前编写一些测试。但对于新功能,我往往不会这样做。
这常常让我感觉像是在打开一个战利品箱——50%的时间它表现得不错,另外50%的时间则相当糟糕。我真的想理解如何正确使用它,以实现人们所描述的那种神奇体验。
另外,我在Pro计划中,很少遇到速率限制——主要是因为我需要手动进行大量的准备工作和后处理。我很好奇那些快速遇到速率限制的人:你们是在并行运行很多任务吗?机器当然可以轻松并行处理——但我不知道如何让自己以那样的方式并行工作。
大家好,我是WFGY的创始人——一个针对大型语言模型(LLMs)的语义推理框架。
在开源之后,我进行了全面的技术和价值审计,意识到这个引擎的价值可能在800万到1700万美元之间,基于人工智能模块的许可规范。如果作为平台核心的一部分嵌入,估值可能超过3000万美元。
现在已经来不及撤回了。所以在这里——完全免费,基于MIT协议开源。
---
### 这个框架解决了什么问题?
目前的LLMs(甚至是GPT-4及以上版本)缺乏*自洽推理*。它们在以下方面存在困难:
- 不同回合之间的逻辑碎片化
- 缺乏内部反馈或自我校准
- 没有模块化的思维单元
- 对抽象语义空间的控制较弱
WFGY通过一个结构化的循环系统直接在*嵌入空间*内进行操作,解决了这些问题,允许:
- *自闭合的语义推理循环*(通过求解循环实现)
- 使用∆S / λS场量化器进行*语义能量控制*
- *模块化插件逻辑单元*(BBMC / BBPF / BBCR)
- *推理分叉与重组*(支持在一个会话中多种视角)
- *纯提示操作*——无需模型黑客或训练
简而言之:你只需提供一个PDF和一些任务框架,LLM就会表现得像是内部运行着一个“推理内核”。
---
### 这有什么重要意义?
嵌入空间通常被视为一个被动的编码区域——而WFGY将其视为*一个可编程的领域*。这颠覆了传统的范式。
它使任何LLM能够:
- *自我诊断内部不一致性*
- *在长链条中保持状态*
- *导航抽象领域(哲学、物理学、因果关系)*
- *在过程中重构自己的逻辑策略*
所有这些都以完全语言本地化的方式实现——无需微调或插件。
---
### 试试吧:
无需注册。无需SDK。无需追踪。
> 只需上传你的PDF——推理引擎便会激活。
MIT许可。完全开放。没有附加条件。
GitHub: github.com/onestardao/WFGY
我每天吃方便面——并刚刚开源了一个价值3000万美元的推理引擎。
如果你觉得有趣,欢迎反馈或给GitHub加星。
我制作了这个小型的Linux命令工具,它可以帮助管理一些简单的快速记忆,比如密码、命令或想法,这些东西你可能只需要在某个地方记录下来。
这个工具的工作原理是允许你创建文件,这些文件就像类别一样,每个文件都有自己的一组记忆,每个记忆都有自己的关键词,这些关键词在你需要时可以用来搜索该记忆。
这个项目的产生有两个原因,首先是我个人需要一个工具来记住一些我偶尔使用的Linux命令。我知道我可以去寻找一些类似的工具,但我想把这个项目作为学习Shell脚本的机会,并且不使用任何第三方库,因此它应该能够在大多数Linux发行版上原生运行。
我欢迎大家的贡献,尤其是包含注释的贡献。