比特派冷钱包|认为 AI 工具不会收集你的数据? 再猜

作者: 比特派冷钱包 分类: 比特派最新 发布时间: 2023-06-17 10:01

由于 OpenAI 的 ChatGPT、Dall-E 和 Lensa 等以用户为中心的产品,生成人工智能的迅速崛起创造了真正的技术轰动。 但是,用户友好型 AI 的蓬勃发展与用户似乎忽视或对这些项目带来的隐私风险一无所知有关。

然而,在所有这些炒作中,国际政府和主要科技人物开始敲响警钟。 出于隐私和安全方面的考虑,意大利刚刚对 ChatGPT 实施了临时禁令,这可能会在德国引发类似的封锁。 在私营部门,包括埃隆马斯克和史蒂夫沃兹尼亚克在内的数百名人工智能研究人员和技术领袖签署了一封公开信,敦促在六个月内暂停 GPT-4 范围之外的人工智能开发。

试图遏制不负责任的 AI 开发的相对迅速的行动值得称赞,但 AI 对数据隐私和安全构成的更广泛威胁超出了一个模型或开发人员。 尽管没有人愿意对 AI 的范式转换能力大加指责,但现在有必要正面解决它的缺点,以避免后果变得灾难性。

推荐阅读 1

随着 币安的担忧消退,比特币价格达到 26,000 美元的“加速”区域

2小时前 2

元宇宙营销探究:蒙牛纯甄的虚实结合打法

3小时前

人工智能的数据隐私风暴

虽然可以很容易地说 OpenAI 和其他由大型技术推动的 AI项目全权负责 AI 的数据隐私问题,但这个话题在进入主流之前很久就已经被提出来了。 在打击 ChatGPT 之前,围绕 AI 数据隐私的丑闻就已经发生了——它们大多发生在公众视线之外。

就在去年,据报道,成千上万的政府和执法机构在公众知识有限的情况下使用基于人工智能的面部识别公司 Clearview AI 被禁止向美国私营企业出售面部识别技术。 Clearview 还因其非法面部识别数据库在英国被罚款 940 万美元。 谁能说 Midjourney 或其他以消费者为中心的视觉 AI项目不能用于类似目的?

面部识别技术公司 Clearview AI 已经确认我的脸在他们的数据库中。 我给他们发了一张头像,他们回复了这些照片,以及他们获得照片的链接,包括一个名为“Insta Stalker”的网站。 pic.twitter.com/ff5ajAFlg0

– Thomas Daigle (@thomasdaigle) 2020 年 6 月 9 日

问题是他们已经是了。 最近一系列涉及通过消费级 AI 产品制造的色情和假新闻的深度伪造丑闻只会加剧保护用户免受恶意 AI 使用的紧迫性。 它采用数字模仿的假设概念,使其成为对普通人和有影响力的公众人物的非常真实的威胁。

伊丽莎白·沃伦 (Elizabeth Warren) 希望警察在 2024 年上门

生成式 AI 模型从根本上依赖于新的和现有的数据来构建和增强它们的能力和可用性。 这是 ChatGPT 如此令人印象深刻的部分原因。 话虽如此,依赖于新数据输入的模型需要从某个地方获取数据,而其中的一部分将不可避免地包括使用它的人的个人数据。 如果中心化实体、政府或黑客掌握了这些数据,那么这些数据很容易被滥用。

那么,在综合监管范围有限和围绕 AI 开发的意见不一的情况下,使用这些产品的公司和用户现在可以做什么?

公司和用户可以做什么

事实上,政府和其他开发人员现在正在围绕 AI 举旗,这实际上表明 Web2 应用程序和加密货币监管的缓慢步伐取得了进展。 但举旗与监督不同,因此保持紧迫感而不是危言耸听对于在为时已晚之前制定有效的法规至关重要。

意大利的 ChatGPT 禁令并不是政府对人工智能采取的第一次打击。 欧盟和巴西都在通过法案来制裁某些类型的 AI 使用和开发。 同样,生成式人工智能可能会导致数据泄露,这引发了加拿大政府的早期立法行动。

AI 数据泄露问题相当严重,甚至 OpenAI 不得不介入。如果你在几周前打开 ChatGPT,你可能会注意到聊天记录功能被关闭了。 OpenAI 暂时关闭该功能是因为存在严重的隐私问题,陌生人的提示会被暴露并泄露支付信息。

如果 AI 试图破坏你的加密货币,请不要感到惊讶

虽然 OpenAI 有效地扑灭了这场大火,但很难相信由 Web2 巨头带头的计划会削减他们的 AI 道德团队以先发制人地做正确的事情。

在整个行业层面,更侧重于联合机器学习的人工智能发展战略也将促进数据隐私。 联邦学习是一种协作式 AI 技术,它可以在没有任何人访问数据的情况下训练 AI 模型,而是利用多个独立的来源用他们自己的数据集来训练算法。

在用户方面,成为 AI Luddite 并完全放弃使用任何这些程序是不必要的,而且很可能很快就不可能了。 但是有一些方法可以让你在日常生活中更聪明地了解你授予访问权限的生成人工智能。 对于将 AI 产品纳入其运营的公司和小型企业而言,对向算法提供的数据保持警惕更为重要。

常青树说,当你使用免费产品时,你的个人数据就是该产品仍然适用于 AI。 记住这一点可能会让你重新考虑你花时间在哪些 AI项目上,以及你实际使用它的目的。 如果你参与了每一个涉及将你自己的照片提供给一个阴暗的人工智能网站的社交媒体趋势,请考虑跳过它。

ChatGPT 在推出仅两个月后就达到了 1 亿用户,这是一个惊人的数字,清楚地表明我们的数字未来将利用人工智能。 但是尽管有这些数字,AI 还不是无处不在。 监管机构和公司应该利用这一优势,主动创建负责任和安全的 AI 开发框架,而不是一旦项目变得太大而无法控制就追逐它。 就目前而言,生成式 AI 的开发在保护和进步之间并不平衡,但仍有时间找到正确的路径,以确保用户信息和隐私保持在最前沿。

Ryan Paterson 是 Unplugged 的​​总裁。 在超越 Unplugged 之前,他曾于 2008 年至 2020 年担任 IST Research 的创始人、总裁兼首席执行官。他于 2020 年 9 月出售公司后退出 IST Research。他曾两次在国防高级研究局和在美国海军陆战队服役 12 年。

埃里克·普林斯 (Erik Prince) 是一位企业家、慈善家和海军海豹突击队退伍军人,其商业利益遍及欧洲、非洲、中东和北美。 在 2010 年出售该公司之前,他曾担任 Frontier Resource Group 的创始人兼董事长以及 Blackwater USA 的创始人——Blackwater USA 是一家为美国政府和其他实体提供全球安全、培训和物流解决方案的供应商。

本文仅供参考,无意也不应被视为法律或投资建议。 此处表达的观点、想法和意见仅代表作者个人,并不一定反映或代表 Cointelegraph 的观点和意见。

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!