返回首页
最新
如果你曾尝试在英国购买或投资房地产,你就会知道这个过程有多么复杂和令人沮丧。作为一名房地产投资者,我深知在过时的电子表格、埋藏的规划申请记录、十多个打开的标签页和半完成的门户网站列表之间跳来跳去是多么令人挫败,价格趋势也让人困惑……即便如此,你仍然不得不猜测。
这正是我创建HomePortfolio的原因;这是一个旨在消除噪音,为普通购房者和投资者提供即时清晰和信心的工具。
我构建了一个AI自动抓取工具,从50多个来源提取实时房源信息,并将其与HM土地注册处的成交价格数据、ONS社区统计数据、学校统计数据、能源性能评级,甚至地方政府的洪水风险和规划数据合并。
然后,我将所有数据通过大型语言模型(LLMs)处理,以提取你通常需要花费数小时挖掘的信息:投资机会、估值、价格趋势、卧室/浴室数量、建筑面积、能源评分、犯罪率、学校距离、洪水区域、规划警报、租金收益率等等。
这个想法很简单:在几秒钟内展示任何英国房产的统一、数据丰富的视图,这样就不再需要依赖猜测、分散的来源或直觉。
试试原型 → homeportfolio.com
这里有一个简短的演示,展示它的实际应用:启动视频链接 [https://youtu.be/vuA_KeASxnE](https://youtu.be/vuA_KeASxnE)
专业提示:
- 灵活的位置:可以按地址、城市或县查询
- 自动提取的规格:“3卧室半独立住宅,1浴室,1200平方英尺”直接从描述中解析
- 风险警示:洪水风险区域和高噪音区域的即时警报
- 收益估算:基于成交价格趋势的5年租金和资本增长预测
- 社区快照:人口统计、犯罪率、学校质量、步行得分、空气质量一览无遗
目前还处于早期阶段,但我非常希望能听到这个社区对数据质量、用户体验改进或新功能想法的反馈。特别想知道你们是否遇到过同样的问题,以及你们希望看到哪些其他功能。请关注我们的产品猎人页面更新 => [https://www.producthunt.com/posts/homeportfolio](https://www.producthunt.com/posts/homeportfolio) 或通过电子邮件与我联系 [email protected]。
问题:我有一个包含多个组件的项目,每个组件都有自己的构建步骤。解决方案:serdev 根据请求的路由构建并提供组件,并监视变更以触发重新构建。
我已经深入参与人工智能代理和大型语言模型(LLMs)的工作一段时间。在最近的求职过程中,我发现自己不断向不同的助手解释我的技能和经验。与此同时,我也在为我的网站创作内容,以帮助招聘团队更好地理解我的能力,从而做出明智的决策。
MCP开始获得关注,我看到了减少工作量的方法。因此,我建立了一个MCP服务器,可以有效地传达我作为求职者的资格。这个服务器充当一个由人工智能驱动的简历,提供对我专业背景的理解,以及一套工具、提示和资源,帮助探索我的技能和经验。
代码是开源的,因此您可以创建自己的人工智能驱动的简历服务器。请在这里查看:<a href="https://github.com/jhgaylor/node-candidate-mcp-server">https://github.com/jhgaylor/node-candidate-mcp-server</a>。
在我的求职过程中,我将我的MCP服务器与其他工具(如Notion、Hirebase和Gmail)结合使用,以建立潜在客户数据库、撰写求职信并跟踪我的求职进展。
他们恨耶稣,因为他告诉了他们真相。<p>另见:被标记的黑客新闻帖子所引发的斯特赖桑效应:https://www.youtube.com/watch?v=rkhrf5MNYRk<p>我不会让我的帖子被标记。我会被听到。
我最近更新了 llm-exe,这是一个专门为简化使用大型语言模型(LLMs)创建应用程序而构建的模块化 TypeScript 库。该包允许您在不更改底层代码的情况下调用来自不同提供商的 LLM。
该库专注于结构化、轻量级的模块化设计,使开发人员能够轻松地从可重用组件组装复杂的工作流程:
- **提示(Prompts)**:用于管理复杂提示的结构化模板,内置 Handlebars 支持。
- **解析器(Parsers)**:将原始 LLM 响应(字符串)转换为结构化数据的组件,支持 JSON、数组、枚举提取和自定义解析逻辑。
- **LLM 提供商(LLM Providers)**:针对各种提供商的抽象接口,包括 OpenAI、Anthropic、xAI、Google Gemini、AWS Bedrock 和 Ollama,允许无缝切换而无需更改实现逻辑。
- **执行器(Executors)**:LLM 执行器接受一个 LLM、一个提示、可选的解析器,并封装在一个类型良好的函数中。LLM 执行器是一个容器,可用于使用预定义的输入和输出调用 LLM;在执行时可以提供额外的值。LLM 执行器的输入和输出类型分别由提示和解析器决定。
- **工具(Utilities)**:用于常见任务的助手,例如提示调试、缓存和管理对话状态。
以下是您可能创建结构化执行器的方式:
```typescript
import { createLlmExecutor, createChatPrompt, createParser, useLlm } from 'llm-exe';
const llm = useLlm("openai.gpt-4o-mini");
const prompt = createChatPrompt<{input: string}>('将短语 "{{input}}" 翻译成法语、西班牙语和德语,并将结果返回为无序的 markdown 列表。');
const parser = createParser('listToArray');
const translateExecutor = createLlmExecutor({ llm, prompt, parser });
// 结果的类型为 string[]
// 输入也有良好的类型!
const result = await translateExecutor.execute({ input: "Hello, world!" });
console.log(result);
// 输出: ["Bonjour le monde!", "¡Hola, mundo!", "Hallo, Welt!"]
```
请在这里查看文档和更多示例:llm-exe.com。我期待您的反馈或贡献!