返回首页
最新
我们在下面列出了支持最新安卓手机的FRP绕过工具,能够轻松绕过包括华为、诺基亚、Tecno、Lava、Micromax、联想、海信、Ulefone、Oppo、Realme、小米、三星、HTC、摩托罗拉、中兴、酷派、Infinix、荣耀、Vivo、索尼、LG等手机的FRP锁。
我最近在恢复手术期间,利用这段时间尝试创建一个Python地下城爬行游戏引擎。<p>你可以在GitHub上找到它:<a href="https://github.com/ruscoe/dans-dungeon">https://github.com/ruscoe/dans-dungeon</a><p>游戏世界是用JSON定义的,包含了所有的房间、战利品和需要战斗的怪物。
我大约在1.5年前创办了一家初创公司,并筹集了大约10万美元。然而,这笔钱大部分用于广告、旅行和参加加速器的强制性研讨会。目前我银行里还有5万美元。我没有领取薪水,生活完全依靠我的储蓄。
在西海岸,没有任何收入的生活非常艰难。我考虑过搬家,但其他的责任让我无法做到。
我不知道自己是疲惫不堪还是脑子出了问题。自从2023年我父亲去世以来,我对一切都感到麻木。
到目前为止,我们只赚了4000美元,但就这而已。我们在经历了重大开发延迟后,2月份发布了一款产品,但这款产品失败了。我们只完成了一笔销售。
我知道与客户交流现在已经成为一个陈词滥调。但我就是找不到可以交谈的人。我几乎没有任何人脉。我们的大部分软件是针对市场营销人员的。我把LinkedIn作为主要渠道,回复率大约是3%。但大多数人要么不感兴趣,要么表示未来有可能。
我现在处于一个十字路口。我不知道是否应该继续经营我的初创公司。
我依赖于提取我的储蓄,但这并不可持续。我非常希望能让它成功,并通过我的工作至少赚取生活费用。
我在科技行业工作了十年或更长时间,但作为一个内向的人和部分自闭症患者,我一直比较孤僻。
我该如何找到用户进行交流?我该如何与他们联系?我发现,在没有验证或与用户交流的情况下进行开发是非常昂贵的。
我希望能得到一些指导。
我注意到越来越多的创作者和平台悄悄地在他们的页面上添加类似于 `<meta name="robots" content="noai">` 的标签——这有点像 robots.txt,但针对的是大型语言模型(LLMs)。对于不熟悉的人来说,robots.txt 是网站用来告诉搜索引擎哪些页面不应被抓取的标准文件。这些新的 “noai” 标签具有类似的目的,但针对的是 AI 训练模型,而不是搜索爬虫。
一些实施这些选择退出机制的平台示例:
- Sketchfab 现在为创作者提供了在其账户设置中阻止 AI 训练的选项
- DeviantArt 在其内容保护策略中率先引入了这些标签
- ArtStation 添加了元标签并更新了其服务条款
- Shutterstock 为那些其图像被用于 AI 训练的贡献者创建了补偿模型
但问题在于,这些标签似乎越来越被视为可选建议,而不是严格的界限:
- 各种创作者报告称这些标签被忽视。例如,在 DeviantArt 上的一次讨论(https://www.deviantart.com/lumaris/journal/NoAI-meta-tag-is-NOT-honored-by-DA-941468316)记录了标签未被遵守的案例,并提到 GitHub 上的对话显示了实施问题
- 在一个关于图像数据集工具的 GitHub 拉取请求中(https://github.com/rom1504/img2dataset/pull/218),开发者将尊重这些标签设为可选而非默认,评论者形容这就像是“让它失去效力,以便我们可以洗手不干,而实际上并没有尊重任何人的意愿”
- 实施这些标签的公司 Raptive Support 承认它们“尚未成为行业标准,我们无法保证任何或所有机器人会尊重它们”(https://help.raptive.com/hc/en-us/articles/13764527993755-NoAI-Meta-Tag-FAQs)
- 向 HTML 标准机构提出的提案(https://github.com/whatwg/html/issues/9334)承认这些标签并未强制执行同意,且“在没有强有力的监管的情况下,合规可能不会发生”
一些创作者变得非常悲观,著名艺术家 David Revoy 宣布他们将放弃像 #NoAI 这样的标签,因为“损害已经造成”,而且他们“无法逐一从数据库中删除自己的艺术作品。”(https://www.davidrevoy.com/article977/artificial-inteligence-why-i-ll-not-hashtag-my-art-humanart-humanmade-or-noai)
这引发了几个实际问题:
- 在没有强制执行机制的情况下,这实际上能起作用吗?
- 从法律上来说,未来能否强制执行?
- 有没有人成功使用这些标签来防止未经授权的训练?
除了技术实施,我认为这指向了一个关于 AI 时代创作者同意的更广泛讨论。这是否更多是象征性的——一个信号,表明人们希望在开放网络上有某种形式的“AI 同意”?还是它可能演变成一个真正有约束力的标准?
我很好奇这里的朋友们是否在自己的网站或内容中添加了类似的东西。你们是否实施了任何技术措施来检测自己的内容是否被用于训练?对于那些在 AI 领域工作的人来说:你们如何看待尊重这些选择退出信号?
期待听到大家的看法。