近日有报道称,成都爱宜兴公益服务中心在捐款页面**使用了AI合成,网友质疑此举涉嫌“骗捐”。 1月10日,涉事门店客服告诉南都记者,此举符合当事人意愿,是为了保护收件人的隐私。 成都市民政局指出,在项目中不宜使用AI合成的老人,要求立即整改。
当人工智能技术涉及公益时,会引发伦理争议吗? 而在公益方面,相关机构应该如何利用好这项技术? 为此,南都记者采访了人工智能专家、互联网研究人员和公益人士,以及科技与公益的关系。 慈善家应凯告诉南都记者,“人工智能不是用来模拟感性的,比如'突出受助者有多悲惨',而应该提供理性的分析。 ”
相关筹款页面。
“AI地图可能挑战公益的真实性”。
南都此前报道称,该案涉及的筹款项目是“80多岁的周奶奶照顾瘫痪的妻子,女儿又病重,可以筹集生活津贴”。 该项目发起人为成都爱宜兴公益服务中心,已募集资金5882元,捐款1050次。 筹款页面显示3位老人的**,网友质疑是AI合成**。
1月10日,涉事门店客服回复南都记者,称链接是根据周奶奶的故事改编的,为了顺应当事人的意愿,保护收件人的隐私,在使用**时采取了智能处理,但省略了**备注信息。
对此,成都市民政局约谈成都爱宜兴公益服务中心负责人,指出项目中不宜使用AI合成的老人,要求立即整改,整改情况向社会公布。
同时,该局要求本市慈善组织在开展公开募捐活动时,要确保文字、**等内容真实有效; 使用个人**时,必须征得当事人的授权同意,并注意保护个人隐私,不得使用虚构**。
在公益领域,用AI技术合成受助者是否合理**?
北京师范大学法学院博士生导师、中国互联网学会研究中心副主任吴申阔告诉记者,“AI地图的使用对于隐私保护有一定的意义,但在公益的背景下,还有一个更重要的要求,那就是'真实性'。 ”
吴申括指出,如果使用AI地图,可能会对公益事业的真实性和透明度构成挑战,也会影响公众对公益组织或相关平台的信任。
2023年7月13日,国家互联网信息办公室等部门联合发布《生成式人工智能服务管理暂行办法》。 该条第十二条规定,提供者应当按照《互联网信息服务深度综合管理规定》对生成的内容进行标记。
中国科学院大学人工智能学院教授、亚太人工智能协会执行主席雷曲江在南都向记者分析,“如果相关机构不对生成的内容进行标注,可能会有很多风险。 “例如,援助的接受者是伪造的,欺骗捐助者等。
在公益活动家英凯看来,没有必要以“隐私保护”为由使用AI地图。
使用人工智能地图只会使图片看起来更有影响力,但不能为捐助者提供更有效的信息。 如果你想保护你的隐私,为什么不拍一棵树或城市景观的照片呢? ”
“应该允许人工智能为公共福利提供理性分析”。
AI技术的浪潮已经掀起,正在逐步介入并赋能各行各业。 相关机构和组织在公益事业中应如何善用这一技术?
作为业内人士,英凯提出,人工智能不应该被用来模拟情绪,比如“突出接受者有多悲惨”,而应该提供理性的分析。
许多非营利组织可能缺乏感知、提炼、逻辑和表达社会问题的能力,而人工智能技术可以提供帮助。 ”
例如,非政府组织可以使用人工智能技术撰写项目提案,形成活动框架,“或者提出建设性建议,例如第一步该做什么,第二步该做什么。 ”
雷曲江说,“AI可以做很多事情,比如将重症患者的相关信息推送给药企或机构,帮助开发新药; 或者将捐赠信息分发到各种渠道,以提高捐赠率。 ”
此外,雷曲江还提出了一个想法:AI可以自动收集患者信息,包括病历和身份信息,并进行自动审核,类似于AI公证处。 但是,人工智能的这种管理权必须掌握在第一人手中,不能落入任何商业组织手中。
吴申阔也提出了类似的建议:患者信息可以通过定向披露的方式进行披露,比如通过权威机构,最大程度实现“保护隐私”和“确保真实性”之间的平衡。 信息公开的程度应以公益情景和公益基本原则为依据。
作者:南都记者周敏轩。