近日,谷歌的人工智能(AI)模型Gemini因原始物体图像存在问题而备受关注。 根据用户反馈,大多数模型在创建**图像时都呈现为非白色图像,这引发了关于“反白”问题的争议。 作为回应,谷歌高级副总裁普拉巴卡尔·拉格哈万(Prabhakar Raghavan)于23日公开道歉,并承诺采取措施改进该技术。
据美联社报道,Gemini作为一款能够基于文本生成图像的AI模型,自推出以来就受到了大量用户的欢迎。 用户可以编写简单的文本提示,并让 Gemini 在几秒钟内创建各种图像,包括骑冲浪板的狗、飞行汽车等。 但是,一些用户在使用模型的生物识别图像时发现了问题。 他们发现,无论输入什么样的文字提示,双子座生成的人的图像大多是彩色的,而不是白色的。
这个问题在用户中引发了强烈的反应和争议。 有网友认为,Gemini在生成图片的过程中存在“反白”问题,涉嫌种族歧视。 他们认为,作为全球广泛使用的AI模型,Gemini应该能够生成所有肤色的人,而不仅仅是有色人种。
针对用户的反馈和争议,谷歌高级副总裁普拉巴卡尔·拉加万(Prabhakar Raghaván)23日在谷歌博客上发表了道歉声明。 他承认,双子座在动物的原始形象方面确实存在问题,未能达到预期的效果。 他说,他非常抱歉,生成的一些图像不准确,甚至令人不快。
Ragawan解释说,当谷歌设置Gemini的功能时,它已经对其进行了调整,以确保它不会陷入过去图像生成技术中的一些陷阱,例如生成暴力或露骨的图像。 然而,他们未能预见到原始**图像中的肤色偏差问题。 他强调,谷歌的用户来自世界各地,他们希望Gemini能为大家服务好。
针对这个问题,谷歌采取了要求Gemini暂时停止运行生物图像功能的方法。 Ragawan表示,该公司正在努力解决这个问题,并承诺尽快推出改进版本。 他表示,谷歌将继续改进其技术,以确保人工智能模型在生成图像时能够考虑到各种肤色和文化背景,以满足全球用户的需求。
一些用户对谷歌的回应和承诺表示理解和支持。 他们认为,谷歌作为一家全球领先的科技公司,有责任和义务解决这个问题,并确保人工智能技术是公平和包容的。 同时,他们也期待谷歌尽快推出改进版,让更多人享受到AI技术带来的便利和乐趣。
但是,也有用户对Google的回应持保留态度。 他们认为,尽管谷歌已经道歉并承诺改进技术,但问题的根源在于人工智能模型的算法和数据集。 除非谷歌能够从根本上解决算法和数据集的问题,否则类似的问题仍有可能再次发生。
这一事件也引发了人们对人工智能技术的道德和公平性的担忧。 有专家指出,人工智能技术在生成图像时会受到训练数据的影响,导致肤色偏差等问题。 因此,在开发和使用人工智能技术时,需要更加关注其道德和公平性,确保技术惠及所有人,不造成歧视和偏见。
最后,谷歌高级副总裁普拉巴卡尔·拉加万(Prabhakar Ragavan)为人工智能模型Gemini在创建生物图像方面存在的问题道歉,并承诺采取措施改进该技术。 这一事件引发了人们对人工智能技术伦理和公平性的担忧,也提醒我们在开发和使用人工智能技术时要更加谨慎和负责任。
优质作者名单