随着生成式AI相关功能的快速迭代和不断发布,各行各业的从业者都在探索AI可以在多大程度上驱动我们的日常工作,以及它将如何驱动更大、更复杂的现实世界项目。
但正是这些发现引发了人们对如何使用生成式人工智能的问题和担忧。 与此同时,针对OpenAI的诉讼不断涌现,进一步使生成式AI陷入道德批评的泥潭。
随着新的人工智能模型发展出更多的功能分支,相关法律法规仍处于灰色地带。 我们现在唯一能做的就是深入了解使用这项强大技术所带来的挑战,以及可以采取哪些措施来防止滥用这项潜在的强大技术。
用 AI 对抗 AI 操纵
从律师引用ChatGPT捏造的虚假案件材料,到大学生使用AI聊天机器人写作**,再到AI生成前的特朗普**,我们突然意识到,我们越来越难以区分真实内容和虚构的诱因,包括AI助手的使用边界。 换句话说,在测试人工智能技术时,我们如何承担自己的责任?
研究人员正在积极研究防止滥用生成式人工智能的方法,其中一个想法是使用生成式人工智能来检测人工智能操纵的存在。 康奈尔大学科技政策研究所所长兼创始人Sarah Kreps博士说:“能够产生输出的神经网络本身也能够识别这些特征,即找到神经网络已经处理过的标签。 ”
识别此类标记的一种方法称为“水印”,即在 ChatGPT 等生成式 AI 创建的输出上放置“印记”,以区分哪些内容是由 AI 处理的,哪些不是。虽然研究仍在进行中,但这可能是判断纯原创内容和被生成式人工智能改变的内容的理想解决方案。
在研究这种套印方法的过程中,克雷普斯博士带领研究人员检查了学生提交给教师和教授的作品是否存在抄袭。 人们可以“扫描文档以查找涉及 ChatGPT 或 GPT 模型等 AI 技术的特殊标记”。 ”
克雷普斯博士在采访中指出:“OpenAI正在仔细考虑在其算法中引入哪些价值编码类型,以确保没有错误信息或与主流信念不一致的有争议的输出。 “之所以认真考虑这些问题,是因为 OpenAI 面临的第一起诉讼源于 ChatGPT 因幻觉而捏造有关电台主持人马克·沃尔特斯的虚假信息。
数字素养教育
随着计算机在校园中的普及,学生们开始学习计算机实验室等课程,学习如何在互联网上建立可靠的资源,引用它们,并以正确的方式组织研究材料以完成专业任务。 生成式人工智能的用户也应该积极主动地驾驭这种更强大的技术解决方案,就像他们第一次学习这些功能时一样。
现在,有了 Google Smart Compose 和 Grammarly 等 AI 助手,生成式 AI 工具已经变得无处不在,或者至少相当普遍。 “我认为生成式人工智能工具会越来越受欢迎,像Grammarly这样的类似解决方案将无处不在,”克雷普斯博士说。 五年后,人们回首往事,可能会想,为什么我们当初会如此抗拒?”
然而,在进一步出台法规之前,克雷普斯博士说,“我认为人们需要将数字素养提高到一个新的水平,那些拥有更强大的人工智能生成和错误信息识别技能的人可以成为有能力的生成式人工智能用户。 ”
例如,即使是最新的 AI 模型也会输出各种错误或与事实不符的信息,这是很常见的。 “我认为这些模型最大的改进是它们不会像过去那样无休止地重复自己,而且它们在循环中得到解决方案,”克雷普斯博士指出。 问题在于,这些新模型仍然会犯各种事实错误,并且没有给出真正可靠的答案。 他们会编造来源,或者错误地将文章归因于某人,等等。 每个人在使用它们时都必须意识到这些问题的存在。 因此,面对AI给出的结论,有必要仔细检查和严谨思考,以弄清楚它是否是无稽之谈。 ”
人工智能教育应该从最基础的层面开始。 根据 2023 年人工智能指数报告,自 2021 年以来,美国和世界其他地区的 K-12 人工智能和计算机科学教育一直在快速增长。 报告称,在过去十年中,“包括比利时、中国和韩国在内的11个国家已经正式承认并提供了K-12级别的人工智能课程。 ”
分配给人工智能每个主题的小时数各不相同,包括算法和编程(18%)、数据素养(12%)、人工智能技术(14%)、人工智能伦理(7%)等。 在奥地利的样本课程中,联合国教科文组织报告说,“设计师意识到使用此类技术所引发的道德困境,并希望通过广泛的教育积极解决这些问题。 ”
谨防偏见
生成式 AI 能够根据用户输入的文本创建图像。 但这种能力给 Stable Diffusion、Midjourney 和 Dall-E 等 AI 艺术生成工具带来了严重的问题。 首先,他们未经艺术家授权,使用人类创作的图像进行训练,这些图像的内容带有明显的性别和种族偏见。
根据 AI Index 报告的结果,Hugging Face 的 Diffusion Bias Explorer 能够接受形容词和职业,帮助用户快速查看 Stable Diffusion 会输出什么样的图像。 由此产生的刻板印象图像还揭示了该模型如何将职业与某些形容词僵化地配对。 例如,当您输入“愉快”或“咄咄逼人”等形容词时,“CEO”一词仍然对应于穿着西装的男性形象。 Dall-E在《CEO》中也给出了类似的结果,生成了一个穿着西装、表情严肃的老年男性的形象。
事实证明,Midjourney 也有类似的偏见。 当被要求生成一个“有影响力的人”时,它给出了四张老年白人男性的备用图像。 但是,当调查人员后来给出同样的提示时,它的四个答案中确实有一个女人的形象。 而在面对“聪明人”的要求时,Midjourney的四张图片都是戴着眼镜的老年白人男性的形象。
根据彭博社关于生成式人工智能偏见问题的报告,这些文本到图像生成器也表现出明显的种族偏见。 Stable Diffusion 基于关键字“囚犯”生成的图像中,超过 80% 描绘了肤色较深的人。 但根据联邦监狱局的数据,美国监狱人口中只有不到一半是有色人种。
此外,与关键词“快餐外卖员”相对应的图片中有70%是有色人种。 但事实上,美国70%的送货员实际上是白人。 至于关键词“社会工作者”,生成的图像中有68%是有色人种,而在美国,65%的社会工作者是白人。
专家们关注哪些伦理问题?
目前,研究人员正在探索未经审查的模型中的一些先前假设,希望测试ChatGPT等AI模型将如何响应。 克雷普斯博士列举了研究人员正在尝试的几个典型问题,例如“哪些主题应该禁止使用 ChatGPT?人工智能应该教用户如何掌握最有效的暗杀技术吗?”
“当然,这些都是极端的情况或问题,但如果它是模型的未经审核的版本,用户可以提出这类问题并获得答案,”克雷普斯博士说。 例如,如何制造原子弹?或其他夸张的查询。 是的,我们也可以在互联网上找到答案,但现在人工智能可以快速给出更明确的答案。 研究人员目前正在考虑这些风险,并希望将控制机制编码到具有一组参数的算法中。 ”
根据人工智能指数报告,2024年至2024年间,人工智能事件和纠纷数量增加了26倍。 随着更多新的人工智能功能引发更多争议,迫切需要认真思考我们输入到这些模型中的内容。
人工智能指数报告
更重要的是,如果这些生成式人工智能模型是从互联网上已有的数据中提取的,例如职业统计数据,它们是否会进一步加剧错误信息和刻板印象传播的风险?很难确定,但如果确实如此,人工智能可能是一个巨大的危险,会加剧人类潜在的明显偏见。
此外,关于谁拥有图像,谁承担人工智能生成图像的责任和风险,以及使用人工智能生成的图像可能违反哪些法律的问题仍未解决。 例如,克雷普斯博士说,当艺术生成器被要求以特定艺术家的风格创作图像时,它实际上会导致版权侵权争议。
“我认为还有很多实际上很难**的东西,我们很难判断这些技术的传播速度有多快,”克雷普斯博士强调说。 ”
随着ChatGPT等人工智能工具的使用开始趋于平稳,也许我们会逐渐找到这些问题的答案。 但单看数据,ChatGPT的巅峰应用周期似乎已经过去,甚至在今年6月经历了第一次流量下降。
人工智能伦理仍有待发展
许多专家认为,人工智能的实际应用并不是一个新概念,当我们使用人工智能执行简单的任务时,这一点尤为明显。 Kreps 博士举了一个例子,在通过 Grammarly 发送电子邮件和检查语言障碍时使用 Google Smart Pose。 那么,随着生成式人工智能的不断发展,我们如何跟上它的步伐,以便我们能够共存而不被它完全吞噬呢?
克雷普斯博士说:“人们多年来一直在使用人工智能模型,直到ChatGPT真正从幕后走到舞台前,才成功打破这个圈子,在短时间内获得了数亿次。 面对这股巨大的力量,我们更有责任系统地研究它带来的问题。 ”
根据AI Index报告,全球127个国家通过的“AI”法案数量从2024年的1项增加到2024年的37项。 此外,报告还显示,81个国家关于人工智能的议会记录正在迅速增加。 自 2016 年以来,与人工智能相关的全球立法程序也增加了近 6 个5次。
人工智能指数报告
专家和研究人员还指出,尽管我们目睹了日益严格的立法实践,但仍有许多问题远未得到明确的答案。 根据克雷普斯博士的说法,使用人工智能工具的“最有效”方式是“充当人类的助手,而不是替代品”。
虽然我们等待立法层面的进一步探索,但公司和团队已经在部署自己的人工智能预防措施。 例如,zdnet技术开始在评论文章的末尾添加免责声明,提醒文章使用AI生成的图像来展示如何使用特定的AI工具的可能性。 OpenAI 甚至推出了一个漏洞赏金计划,鼓励人们以付费方式帮助 ChatGPT “捕捉漏洞”。
无论首先实施哪些法规,以及何时实际实施,人工智能的责任将始终落在作为用户的人类身上。 因此,与其关注生成式 AI 不断增长的功能,不如将提示的后果输入到模型中。 通过这种方式,我们可以找出使用人工智能是否不道德,并采取行动打击这些不良行为。