2作者: ta126534212 个月前原帖
我在想:<p>是否已经有人研究过发布的肯尼迪档案?或者有没有相关的项目?<p>在如今的人工智能时代,这应该会变得更加容易且节省时间吧?
1作者: malisper2 个月前原帖
我们所做的: Freshpaint 在患者隐私与数字营销之间架起了一座桥梁,确保敏感数据不会与不符合 HIPAA 标准的工具共享。我们是一个小型的高级团队,致力于构建实时数据管道和隐私安全系统。 技术栈:Go、Postgres、AWS、TypeScript、React。 我们正在寻找: 后端工程师:具有后端系统、API、分布式架构和以产品为中心的工程经验。 申请链接:<a href="https://tinyurl.com/4nbv7wde" rel="nofollow">https://tinyurl.com/4nbv7wde</a> 前端工程师:具有 React、TypeScript 经验,并在协作环境中负责 UI 开发。 申请链接:<a href="https://tinyurl.com/wfud7ppv" rel="nofollow">https://tinyurl.com/wfud7ppv</a> 在快速增长的早期创业公司工作的经验是必须的。 完全远程工作(美国)。提供具有竞争力的薪资和股权。 请通过以上链接申请或发送电子邮件至我们的招聘专员 [email protected]
1作者: percfeg2 个月前原帖
我是一家受监管行业的开发负责人。我们越来越多地将生成式人工智能应用集成到我们的技术栈中,非常喜欢这些应用,但在确保这些应用在部署前符合内部人工智能风险政策方面遇到了挑战。通常,这些政策由治理、风险和合规(GRC)团队制定,因此非常高层次且以业务为导向,这使得它们难以转化为可操作的开发项目。这种模糊性也使得有效测试实施的控制措施是否真正执行了预期政策变得困难。 我想了解其他人是否面临类似的障碍,以及你们是如何应对这些问题的。具体来说: - 你们如何将抽象的人工智能政策转化为具体的、可测试的要求,以供开发团队使用? - 你们是在持续集成/持续交付(CI/CD)管道中自动执行这些特定于人工智能的政策,还是主要依赖于部署后的监控? - 你们为此使用了哪些具体的工具、框架或平台? - 在将人工智能风险管理/治理融入软件开发生命周期(SDLC)过程中,你们还遇到了哪些其他挑战? 提前感谢!