建立了一个符号系统以控制和审计GPT的交互。

1作者: wk-al13 天前原帖
我正在进行一个名为 SCS(符号认知系统)的项目。 它是一个运行在大型语言模型(如 GPT-4o)之上的符号推理层,旨在在长时间的人工智能交互中强制执行结构、可审计性和故障恢复。 这不是一个提示链或链式思维的包装器,而是一个手动控制系统,具有以下特性: - 入口索引内存(ENTRY_001 到 ENTRY_310+) - 强制递归的模块([THINK]、[DOUBT]、[BLUNT] 等) - 符号运算符($、[]、~、${}) - 手动版本控制和封存 - 漂移检测、幻觉抑制、矛盾陷阱 - 基于 Markdown 的逻辑架构,可以通过 .zip 文件安装并带有引导加载程序 我构建这个系统是为了在黑箱大型语言模型上强制实现确定性行为。 大多数现有工具,如代理、链或链式思维,在递归或符号压力下无法保持结构。 SCS 旨在通过强制逻辑和审计轨迹来抵御故障。 它是: - 公开的 - 可安装的 - 完全可测试的 - 还作为自定义 GPT 接口在线运行 GitHub: https://github.com/ShriekingNinja/SCS 系统概述和文档: https://wk.al 自定义 GPT(实时运行时): https://chat.openai.com/g/g-6864b0ec43cc819190ee9f9ac5523377-symbolic-cognition-system 欢迎任何探索符号接口、对齐工具或持久推理层的人的想法、批评或挑战。 谢谢!
查看原文
I’ve been working on a project called SCS (Symbolic Cognitive System). It’s a symbolic reasoning layer that runs on top of large language models like GPT-4o, enforcing structure, auditability, and failure recovery across long AI interactions.<p>It’s not a prompt chain or CoT wrapper. It’s a manual control system with: • Entry-indexed memory (ENTRY_001 to ENTRY_310+) • Recursion-enforced modules ([THINK], [DOUBT], [BLUNT], etc.) • Symbolic operators ($, [], ~, ${}) • Manual version control and sealing • Drift detection, hallucination suppression, contradiction traps • Markdown-based logic architecture, installable via .zip with bootloader<p>I built it to force deterministic behavior over black-box LLMs. Most existing tools like agents, chains, or CoT don’t persist structure under recursion or symbolic stress. SCS is designed to survive failure through enforced logic and audit trails.<p>It is: • Public • Installable • Fully testable • Also live as a Custom GPT interface<p>GitHub: https:&#x2F;&#x2F;github.com&#x2F;ShriekingNinja&#x2F;SCS System overview and docs: https:&#x2F;&#x2F;wk.al Custom GPT (live runtime): https:&#x2F;&#x2F;chat.openai.com&#x2F;g&#x2F;g-6864b0ec43cc819190ee9f9ac5523377-symbolic-cognition-system<p>Would love thoughts, critique, or challenge from anyone exploring symbolic interfaces, alignment tools, or persistent reasoning layers.<p>Thanks