新闻中心

为“野蛮生长”的AI戴上“紧箍咒”

2024-11-09
浏览次数:
返回列表

  全球第四次工业化浪潮助推了数字时代的“AI”智能见风疯长,AI仿佛一夜之间占据了人们的头脑空间,从生产、生活的方方面面,AI的确改变了人类的思维方式,提升了生活效率。

  在工业生产中,自动化、数字化生产提高了企业生产质效;在医药健康领域,“数字医生”可以帮助医生精准快速诊断疾病;在教育领域,AI可以为学生制定个性化学习方案;在商业领域,乐鱼体育注册数字人直播、智能试衣镜给消费者带来更贴心的服务……

  然而,随着AI的广泛应用,一系列因AI而生的问题也逐渐浮出水面。本文将从多个角度探讨如何规范AI发展,为生活和工作赋能。

  随着计算能力和数据资源的进一步提升,AI技术取得巨大突破。时至今日,AI已成为我们生活的一部分,正逐步改变人们认识世界、处理问题的方式。但AI在推进社会变革的同时也带来了一系列不容忽视的社会问题。

  一是深度伪造难辨线年底,ChatGPT横空出世,刷新了人们对生成式AI的认知。今年2月,OpenAI推出文生视频模型Sora,生成的视频画面可媲美电影镜头。AI使内容生产更加快捷、简单,一些心怀不轨的人则通过AI技术制作虚假新闻引发社会恐慌、用AI复活逝者赚取流量,甚至通过AI换脸技术实施诈骗,扰乱公共秩序,触碰法律和道德底线。

  二是隐私泄漏危机四伏。随着AI技术的发展,语音助手、智能家居等“飞入寻常百姓家”,但在使用中,一些应用系统会过度采集用户数据,包括个人隐私信息,增加隐私泄漏风险。例如,滴滴公司曾被爆违法处理个人信息647.09亿条,包括人脸识别、身份证号等敏感个人信息。另外,企业在使用AI工具寻求答案时,AI默认将提问的信息存入学习库,存在数据泄漏的风险,可能会给企业带来难以估量的损失。此前韩国三星公司就发生过此类事件,导致机密信息被盗取。

  三是算法加剧社会歧视。由于AI系统的训练数据通常来自人类社会,如果“喂”给系统的训练数据带有社会和文化偏见,将导致算法对特定群体做出不公平的判断。此外,如果算法设计者存在主观偏见,将制作出自带歧视“基因”的AI工具,而这一“暗箱操作”具有隐蔽性,很难被发现,将加剧社会不公平、不平等现象。例如,此前亚马逊曾设计了一个AI招聘算法,该算法在读取到带有“women”的相关词时,会自动降低简历的权重。

  四是AI侵权难以认定。AI企业为了训练大模型需要大量数据,而这些数据可能包含已经发布的作品,如果这些作品是在未经许可或未付款的情况下获取的,将侵犯创作者的合法权益。例如,此前8家美国新闻机构对OpenAI提起诉讼,指控其私自使用他们的新闻作品训练AI。同时,AI如果模仿已有作品的特征元素,生成与原作高度相似的内容,将侵犯原作的版权,此类生成式AI作品侵权事件在全国已多次发生。

  五是引发学术诚信危机。随着ChatGPT等生成式AI工具的普及,一些学生过度依赖AI,简单地将ChatGPT生成的文本拼凑成论文,引发学术不端,大大降低了论文的学术价值和创新价值。如果不对此类现象加以管控,学术诚信危机将影响各类学科研究,从长远看也不利于个人的学术成长。

  立法划定“红线”。积极推进AI立法工作,针对AI发展中的权责不清、数据安全漏洞、技术滥用、内容侵权等问题,集思广益探讨AI立法草案,尽快发布有统领性的上位法,明确AI技术的使用边界、数据保护标准、算法透明度等,为AI健康发展提供法律保障,为用户合理维权提供法律支持。

  软法规范发展。发布全国性AI产业标准化建设指南,针对工业、金融、医药、教育等各行业制定具体的技术要求和应用指南,形成统一的行业共识。对AI产业的基础共性标准、基础支撑标准、关键技术标准、安全管理标准等进行明确规定,为企业提供预见性指导,维护产业生态环境。完善学术诚信制度,通过制度约束,提高研究人员学术道德意识。

  监管推动落实。建立专门的AI监管机构,负责对AI企业的技术研发、应用进行全程监督,及时发现并纠正违反法律和产业规定的行为,了解并分析产业内暴露出的最新风险隐患,修补可能出现的“漏洞”。引导企业加强自我监管,建立内部审查机制。

  提升企业透明度。AI系统开发者应适度公开AI算法的基本原理、决策逻辑、数据来源及可能对用户产生的影响,确保算法透明得到落实,有效避免企业的“黑箱操作”,增强用户对AI工具的信任。

  强化行业自律。组建AI产业协会,构建行业信用体系,并吸纳金融、医疗、制造等领域的企业、高校、科研院所加入,制定协会公约,促进企业自律,维护良性生态。定期组织企业开展交流活动,打造AI技术、成果的交流与共享平台,促进产业协同进步。

  加强技术研发。AI系统开发者可加强研发,解决目前AI应用领域存在的学术造假、算法歧视等“痛点”问题。通过技术升级精准识别被篡改后的文字和图片,打击学术不端和伪造行为,规范AI技术应用。优化算法设计,确保算法本身没有设计歧视,并使用一些公平性指标来评估AI模型的公平性。

  积极拥抱AI。AI时代是社会发展的必然趋势,如果不想被社会淘汰,我们应该积极拥抱AI,接受新事物,尝试新技术,为生活工作提供便利,并及时反馈自己的使用体验和改进建议,通过有效的反馈,促进AI健康发展。

  合理使用AI。对于AI我们既不能弃之不用,也不能过于依赖,要认识到AI只是工具,绝不能代替个人的思考,不能养成靠“拐杖”行走的习惯,还应专注于提升自身能力,合理使用AI工具,不可把AI作为研究成果,杜绝学术造假行为。

  理性辨别AI。在使用AI软件之前要详细了解隐私政策,确保自己的隐私安全、数据安全。对于AI生成的信息要有辨别能力,不轻信、不传谣,对于通过网络进行的钱财交易要高度警惕,防止AI欺诈。

  AI技术已经成为全球科技进步的新动能和主导力量,它将带来一个充满机遇又面临挑战的时代。为了确保AI技术的健康发展,既要“放得开”,又要“收得住”,需要为其戴上“紧箍咒”,及时洞察和掌控AI应用中出现的问题。同时,也要对AI保持宽容度,不能因噎废食,容许其在可控的范围内发生问题,尝试“容错机制”。秉持一种既规范又不失开放的态度,妥善处理好AI技术创新与治理之间的矛盾,即要遏制其危害,也不能阻碍其发展。通过政府、行业、社会同向发力,精心构建一套规范的发展体系、应用体系、管理体系,为社会治理现代化赋能,为经济高质量发展助力。

搜索