023小说网 > 其他类型 > 大白话聊透人工智能 > “人工智能+”的风险管控与伦理规范

“人工智能+”的风险管控与伦理规范(1 / 1)

一、技术风险:ai也会“掉链子”问题最常见

咱们总觉得ai特别厉害,能算复杂数据、能写文案还能画画,但实际上它也会“犯迷糊”“带偏见”,甚至关键时刻“掉链子”。这部分说的技术风险,就是ai在技术层面容易出的岔子,其中最典型的就是算法偏见、模型幻觉和系统可靠性问题。

11 算法偏见:ai也会“看人下菜碟”,不是它故意的,是“学歪了”

先说说“算法偏见”,听着挺专业,其实就是ai在做判断的时候,会不自觉地偏向某一类人,或者对某一类人不友好。比如咱们平时用的招聘app,有些公司会用ai筛选简历,如果一开始给ai“喂”的简历里,大部分都是男性的优秀简历,ai就会误以为“男性更符合岗位要求”,之后再看到女性简历,可能就会不自觉地打低分——这就是典型的算法偏见。

为啥会这样?不是ai有“性别歧视”,而是它学习的“素材”有问题。ai就像个小学生,老师教啥它学啥,如果老师给的教材里本身就有偏向性,那学生学出来肯定也带偏。再比如贷款app,有些ai评估用户信用时,会参考用户的居住地,如果某个区域之前有过较多逾期记录,ai可能就会直接给这个区域的用户打低信用分,哪怕有些用户本身信用特别好,也会被“连累”。

这种偏见带来的麻烦可不小。找工作的女性可能因为ai偏见错失机会,信用好的人可能因为ai偏见贷不到款,甚至在司法领域,如果用ai辅助判断案件,偏见还可能影响判决公平性。所以算法偏见不是小事,得提前发现、提前改。

12 模型幻觉:ai会“瞎编乱造”

再说说“模型幻觉”,这个更有意思,简单说就是ai会“一本正经地胡说八道”。比如你问ai“某本不存在的书的作者是谁”,它不会说“我不知道”,反而会编一个名字,还会瞎编这本书的出版时间、主要内容,甚至引用里面的“名言”,让你误以为真有这本书。

为啥会出现幻觉?的核心是“预测下一个字\/词该放啥”,它不关心内容是不是真的。比如你让ai写一篇关于“古代某座虚构城市的历史”,ai会把它学过的所有“古代城市”“历史事件”的信息拼在一起,凑出一篇逻辑通顺但完全虚构的内容。就像咱们做梦的时候,会把现实里的片段拼在一起,形成一个假的场景,ai的幻觉差不多就是这个意思。

这种幻觉的危害也挺大。如果医生用ai查医学资料,ai编一个假的治疗方案,可能会耽误病人;如果学生用ai写论文,ai编一些假的引用文献,论文就会出大问题。所以现在用ai查信息,尤其是重要信息,一定要多核对,不能全信。

13 系统可靠性:ai也会“死机”“出错”

最后是“系统可靠性”问题,简单说就是ai系统可能会突然出故障,或者在复杂场景下出错。比如自动驾驶汽车,平时在空旷的马路上跑得挺好,但遇到暴雨、大雾天气,或者路上突然出现一个塑料袋、一只小动物,ai可能就会判断失误,要么突然刹车,要么没及时避让,容易引发事故。

再比如银行的ai转账系统,如果突然遇到网络波动,或者系统里的某个程序出了bug,可能会出现“转账成功但对方没收到”“重复转账”等问题,给用户带来损失。还有咱们用的智能客服,平时能解答一些简单问题,但遇到复杂的投诉、咨询,比如“账户被盗了该怎么办”“订单丢了怎么找回”,ai可能就会“答非所问”,或者直接把问题推给人工,要是人工客服又忙不过来,用户就会特别着急。

为啥ai系统会不可靠?一方面是技术本身的问题,比如ai对复杂环境的适应能力还不够强,遇到没见过的场景就容易“懵”;另一方面是人为因素,比如程序员在写代码的时候出了错,或者系统维护不到位,没有及时更新、修复漏洞。所以不管是用ai开车,还是用ai处理金融业务,都得留好“后手”,比如自动驾驶得有人类驾驶员随时接管,ai转账得有人工审核环节,不能完全依赖ai。

二、伦理挑战:ai不能只讲“技术”,还得讲“规矩”

21 公平性:ai不能“欺负人”有人平等的机会

先说说“公平性”,其实和前面说的“算法偏见”有点像,但范围更广——不只是ai判断的时候不能有偏见,还要保证所有人都能平等地享受ai带来的好处,不能因为性别、年龄、肤色、收入、地区等因素,被ai“区别对待”。

比如现在很多地方用ai做教育辅导,发达地区的孩子能用到先进的ai学习系统,有个性化的学习计划、优质的课程资源;但偏远地区的孩子可能连基本的电脑、网络都没有,更别说用ai辅导学习了——这就是“ai教育公平”问题,相当于发达地区的孩子在学习上多了一个“帮手”,而偏远地区的孩子没有,差距可能会越来越大。

再比如ai医疗,大城市的医院能用ai辅助诊断癌症、糖尿病,通过分析ct影像、血液数据,更早发现病情;但小城市、农村的医院可能没有这样的ai系统,医生只能靠经验诊断,有些早期疾病可能就会被漏诊、误诊——这就是“ai医疗公平”问题,相当于大城市的人能更早得到治疗,而小城市、农村的人可能会耽误病情。

还有ai就业,现在很多行业用ai替代人工,比如工厂里的流水线工人、超市里的收银员、银行里的柜员,这些岗位越来越少,很多人会失业。但这些失业的人里,很多都是学历不高、没有其他技能的人,他们很难再找到新工作;而懂ai、会操作ai的人,却能找到高薪工作——这就是“ai就业公平”问题,ai让一部分人更吃香,却让另一部分人没了饭碗。

所以ai的公平性不是小事,不能让ai只服务于少数人,得想办法让所有人都能用上ai、受益于ai。比如政府可以给偏远地区捐ai学习设备、建网络,让农村孩子也能用上ai辅导;医院可以推广ai诊断系统,让小城市的医生也能借助ai看病;企业可以给失业的人做ai技能培训,帮他们找到新工作。

22 透明度:ai做决定得“说清楚”,不能“暗箱操作”

再说说“透明度”,简单说就是“ai为啥做这个决定,得让人看明白”。比如你申请贷款,ai说“你不符合条件,拒绝贷款”,你肯定想知道“为啥拒绝我?是因为我收入低,还是因为我有过逾期记录?”如果ai不告诉你原因,只给一个结果,你就会觉得不公平,甚至怀疑ai是不是有问题——这就是透明度不够的问题。

再比如你用ai推荐视频,ai总给你推同一类内容,比如你看了一个搞笑视频,之后全是搞笑视频,你想知道“ai为啥只给我推这个?能不能给我推点别的?”如果ai不解释推荐逻辑,你就会觉得被“困住”了,看不到其他类型的内容——这也是透明度不够的问题。

还有司法领域,如果ai辅助法官判案,比如给某个案件的被告人打分,判断他“再犯罪的可能性”,如果ai说“可能性很高,建议重判”,法官和被告人都得知道“ai是怎么算出来的?参考了哪些因素?是被告人的年龄、学历,还是之前的犯罪记录?”如果ai不说明白,这个判决就很难让人信服。

为啥ai的透明度这么难实现?因为很多ai模型是“黑箱”——就像一个魔术盒,你把数据放进去,它就会输出结果,但你不知道盒子里到底发生了什么。比如chatgpt这样的大模型,它的计算过程非常复杂,就算是开发它的程序员,也未必能说清楚它为啥会生成某一句话。

但透明度又很重要,不然大家就会不信任ai。所以现在很多国家都在要求ai企业“打开黑箱”,比如贷款ai得告诉用户拒绝贷款的具体原因,推荐ai得让用户知道推荐逻辑,司法ai得说明判断依据。虽然很难完全做到,但至少得往这个方向努力。

23 社会责任:ai不能只“赚钱”,还得“担责任”

最后是“社会责任”,简单说就是ai企业不能只想着用ai赚钱,还得考虑ai对社会的影响,比如ai会不会危害隐私、会不会破坏环境、会不会影响社会稳定。

先说说隐私问题,这是大家最关心的。现在很多ai产品都要收集用户数据,比如人脸识别需要收集人脸信息,智能手表需要收集健康数据,ai推荐需要收集浏览记录。如果企业把这些数据随便存着、或者卖给其他公司,用户的隐私就会被泄露。比如有人用ai摄像头偷偷拍别人的人脸,然后做成“人脸库”卖给诈骗分子;有人把用户的健康数据卖给保险公司,保险公司就会拒绝给身体不好的人投保——这些都是ai企业没尽到社会责任,只想着赚钱,不管用户的隐私安全。

再说说环境问题,ai其实是“耗电大户”。训练一个大模型,比如gpt-3,需要用到很多服务器,这些服务器24小时运转,消耗的电量相当于几百户家庭一年的用电量,还会排放大量二氧化碳,污染环境。如果ai企业只想着把模型做得更大、更厉害,不考虑节能减排,就会给环境带来很大压力——这也是社会责任的一部分,ai发展不能以破坏环境为代价。

还有社会稳定问题,比如ai能生成“深度伪造”内容,就是用ai做假视频、假音频,比如把某个人的脸换到另一个人身上,制作出“假新闻”“假绯闻”。如果有人用这个技术造谣、诽谤,比如伪造某个明星的负面视频,或者伪造某个官员的不当言论,很容易引发社会恐慌、破坏社会信任——这时候ai企业就得担起责任,比如开发识别“深度伪造”的技术,阻止假内容传播,而不是放任不管。

所以ai不是“法外之地”,企业用ai赚钱的同时,必须承担起社会责任,比如保护用户隐私、节能减排、阻止ai被用来做坏事。如果企业只讲利益、不讲责任,ai早晚都会被大家反感、抵制。

三、全球伦理治理:各国对ai的“规矩”得慢慢商量着来

31 国际共识:各国都同意的“ai规矩”

虽然各国对ai的监管不一样,但在一些关键问题上,大家还是能达成共识的——简单说就是“有些事ai绝对不能做”,不管哪个国家都得遵守。

最典型的就是“ai不能用于军事危害人类”。比如不能开发“自主杀人机器人”——就是不需要人类控制,自己就能识别目标、开枪杀人的机器人。如果这种ai被用于战争,后果不堪设想,可能会造成大量无辜平民死亡,甚至引发世界大战。所以现在联合国和很多国家都在呼吁“禁止开发自主杀人机器人”,这就是一个重要的国际共识。

再比如“ai不能歧视人类”。不管是哪个国家,都不能用ai搞种族歧视、性别歧视、宗教歧视。比如不能开发“只服务于白人”的ai,不能开发“歧视女性就业”的ai,这也是各国都认可的共识。因为歧视会引发社会矛盾,不管在哪个国家,都不利于社会稳定。

还有“ai要保护用户隐私”。虽然各国对隐私保护的严格程度不一样,但都同意“ai不能随便收集、泄露用户隐私”。比如不能用ai偷偷拍别人的隐私视频,不能把用户的身份证号、银行卡号随便卖给别人,这也是一个基本共识。因为隐私是人类的基本权利,不管在哪个国家,大家都不希望自己的隐私被泄露。

另外,“ai要保证安全可靠”也是一个共识。不管是用ai开车、用ai做手术,还是用ai处理金融业务,都得保证ai不会出故障、不会出错,不然会给人类带来损失。比如自动驾驶汽车必须经过严格的安全测试才能上路,ai手术机器人必须有备用系统,防止突然出故障——这些都是各国都认可的安全底线。

这些国际共识就像“全球通用的ai交通规则”,不管你是哪个国家的ai产品,都得遵守这些规则,不然就会被全世界抵制。现在联合国、欧盟、美国、中国等都在积极参与国际共识的制定,就是为了让ai在全球范围内安全、有序地发展。

32 区域监管政策的差异:有的国家管得严,有的国家管得松,各有各的考虑

虽然有国际共识,但不同区域、不同国家的ai监管政策还是有很大差异——这不是因为有的国家“不讲理”,而是因为各国的情况不一样,比如文化传统、法律体系、技术发展水平都不同,所以对ai的监管重点也不一样。咱们主要说说几个有代表性的区域:欧盟、美国、中国,看看它们的监管政策有啥不一样。

321 欧盟:管得最严,把“伦理”

欧盟对ai的监管是出了名的严格,核心思路是“先定规矩,再让ai发展”,尤其看重ai的伦理和安全。2024年欧盟出台了《人工智能法案》,这是全球第一个全面的ai监管法律,里面把ai分成了“四个风险等级”管得不一样:

- 最高风险的ai:直接禁止,比如“自主杀人机器人”“用ai操纵人的行为”(比如用ai搞政治洗脑)“用ai歧视特定人群”(比如用ai筛选租客时歧视外国人),这些ai不管有多厉害,都不能在欧盟用。

- 高风险的ai:必须经过严格审核才能用,比如ai医疗设备(比如ai手术机器人)、ai教育软件(比如给学生打分的ai)、ai招聘系统、自动驾驶汽车。这些ai在上市前,必须证明自己“安全、公平、透明”,还要有专门的机构审核,审核通过了才能用。

- 中风险的ai:需要披露信息,比如ai推荐系统(比如视频app的推荐ai)、ai聊天机器人(比如chatgpt)。这些ai不需要审核,但必须告诉用户“我是ai”,还要说明推荐逻辑、生成内容的依据,不能让用户误以为是人类做的。

- 低风险的ai:基本不管,比如手机里的智能闹钟、智能计算器,这些ai对人类没什么危害,所以欧盟不怎么管。

欧盟为啥管这么严?因为欧盟特别看重“人权”和“社会公平”,担心ai会侵犯人权(比如隐私、平等权),破坏社会公平。比如之前有欧盟国家发现,有些ai招聘系统歧视女性,所以欧盟就规定ai招聘系统必须经过公平性审核才能用。虽然严,但能最大程度保护用户的权益,不过也有一些ai企业觉得“太麻烦”,不愿意在欧盟开展业务——这就是严监管的两面性。

322 美国:管得“灵活”护创新,又想控制风险

美国对ai的监管和欧盟不一样,核心思路是“先让ai发展起来,再根据问题定规矩”,既不想因为监管太严耽误ai创新(毕竟美国有很多大ai公司,比如谷歌、微软、openai),又不想让ai出大问题。

美国没有像欧盟那样出台统一的ai法律,而是让不同的部门根据自己的领域制定监管规则。

- 医疗领域:美国食品药品监督管理局(fda)会监管ai医疗设备,比如ai诊断软件必须证明自己有效、安全才能上市,和欧盟的高风险ai监管有点像。

- 金融领域:美国证券交易委员会(sec)会监管ai金融产品,比如ai炒股软件、ai贷款系统,防止这些ai误导用户、引发金融风险。

- 隐私领域:美国各州有自己的隐私法,比如加州的《消费者隐私法案》,规定ai企业收集用户数据必须经过用户同意,不能随便泄露。

另外,美国特别看重“ai的国家安全”,比如禁止美国的ai公司把先进的ai技术卖给其他国家(尤其是可能威胁美国安全的国家),防止这些技术被用来制造武器、破坏美国的网络安全。比如美国之前就对openai、谷歌等ai巨头提出要求,不许向中国等国家出口能用于军事、高端制造的ai模型和技术,担心这些技术被“滥用”。

美国这种“灵活监管”的好处是,ai企业有更多创新空间,不用被太多规则束缚,能快速推出新的ai产品——比如chatgpt、gpt-4这些爆款ai,都是美国公司先做出来的。但坏处也很明显,因为没有统一的规则,不同部门的监管标准不一样,ai企业可能会“钻空子”,比如在医疗领域遵守fda的规则,但在其他领域就放松要求,容易出现风险。而且美国对ai伦理的监管相对宽松,比如ai歧视、ai隐私泄露等问题,处理起来没有欧盟那么严格,用户权益可能得不到充分保护。

323 中国:监管“务实”全,又要促发展

咱们中国对ai的监管,走的是“务实路线”——既不像欧盟那么“严”到可能限制创新,也不像美国那么“散”到容易出漏洞,核心是“在安全的前提下,推动ai发展”,让ai能真正服务于经济、社会和民生。

这些年中国出台了不少ai监管政策,而且针对性很强,都是围绕大家最关心的领域来定规矩:

- 先说说ai安全,这是中国监管的重点。2024年中国出台了《生成式人工智能服务管理暂行办法》,明确要求生成式ai(比如chatgpt、文心一言这种能写文案、画画的ai)不能生成“违法违规内容”,比如不能生成谣言、暴力、色情内容,也不能生成危害国家安全的内容。而且ai企业在上线产品前,必须对生成的内容进行审核,要是出了问题,企业得担责任。比如之前有个ai聊天机器人,用户问它“怎么制造危险物品”,它竟然给出了步骤,后来这个ai就被下架整改了——这就是中国对ai安全的严格把控。

- 再说说隐私保护,这也是中国监管的核心。2021年中国出台了《个人信息保护法》,明确规定ai企业收集用户数据必须“合法、正当、必要”,不能随便收集。比如人脸识别ai,只能在需要的场景下用(比如火车站安检、小区门禁),不能在商场、超市等地方随便装人脸识别摄像头;而且收集人脸信息前,必须明确告诉用户“要收集你的人脸,用来做什么”,还要得到用户同意。如果企业偷偷收集人脸信息,会被重罚——之前就有一家连锁超市,在门店装了人脸识别摄像头,没告诉用户,被罚款了50万元。

- 还有ai赋能实体经济,中国监管不仅“管风险”,还“促发展”。比如政府鼓励ai企业把技术用到制造业、农业、医疗、教育等领域,比如用ai优化工厂生产线,提高生产效率;用ai监测农田的病虫害,帮助农民增产;用ai辅助医生诊断,让偏远地区的人也能看上“好医生”。为了支持这些方向,政府还会给ai企业提供补贴、税收优惠,比如有些地方对ai医疗企业,会减免3年的企业所得税,鼓励它们研发更多好产品。

中国这种“务实监管”的好处很明显:一方面,能守住安全底线,防止ai出现违法违规、泄露隐私等问题,保护用户和社会的利益;另一方面,能给ai企业足够的发展空间,让ai技术真正落地到实体经济中,而不是“只停留在实验室里”。比如现在中国的ai制造业、ai医疗都发展得很快,既带动了经济,又给老百姓带来了实惠。

33 全球伦理治理的难点:差异难统一,但合作是趋势

虽然各国都在推进ai监管,但全球伦理治理还是有很多难点——最核心的就是“差异难统一”。比如欧盟觉得“ai伦理比创新重要”,美国觉得“创新比伦理监管重要”,中国觉得“安全和发展要平衡”,大家的优先级不一样,想制定一套“全球通用的ai规则”特别难。

再比如,有些发展中国家的ai技术还很落后,它们更关心“怎么用ai发展经济、改善民生”,比如用ai解决贫困、疾病问题,对“ai伦理监管”的需求没那么迫切;而发达国家的ai技术已经很先进,它们更关心“怎么防止ai滥用、保护人权”,比如防止ai歧视、泄露隐私。双方的诉求不一样,很难达成一致。

还有,ai涉及“国家利益”,比如ai技术能用于军事、高端制造、网络安全,这些都是关系到国家竞争力的领域。有些国家担心,要是同意了统一的全球规则,可能会限制自己的ai发展,影响国家利益,所以不愿意轻易妥协。比如美国就不愿意接受欧盟那种严格的监管规则,担心会影响美国ai企业的竞争力。

但即便有这么多难点,“全球合作”还是大趋势。因为ai的风险是全球性的——比如ai生成的假新闻,能通过互联网快速传到全世界,引发全球恐慌;ai网络攻击,能攻击其他国家的电网、银行系统,影响全球安全。这些问题靠一个国家根本解决不了,必须各国一起合作。

比如现在联合国已经成立了“人工智能咨询机构”,让各国专家一起讨论ai伦理问题;中国、美国、欧盟也经常召开ai对话会议,交流监管经验;还有一些国际组织,比如国际标准化组织(iso),正在制定ai安全、ai公平性的国际标准,让各国的ai产品能“互联互通、互相认可”。

虽然这个过程会很慢,但只要各国都愿意放下部分分歧,朝着“安全、公平、负责任的ai发展”这个目标努力,早晚能形成一套大家都能接受的全球伦理治理体系。

四、总结:ai是“工具”,用好它的关键在“人”

第一,技术层面要“补漏洞”:针对算法偏见,要给ai“喂”更公平的数据,比如招聘ai的训练数据里,要包含足够多的女性简历、不同学历的简历;针对模型幻觉,要开发“事实核查”技术,让ai生成内容前先核对真假;针对系统可靠性,要多做测试,比如自动驾驶汽车要在暴雨、大雾等复杂场景下反复测试,确保不会出故障。

第二,伦理层面要“定规矩”:企业要承担起责任,比如不随便收集用户隐私、不开发危害社会的ai产品;政府要出台明确的规则,比如哪些ai能做、哪些不能做,出了问题怎么罚;我们每个人也要有“ai伦理意识”,比如不滥用ai生成假内容、不随便泄露自己的个人信息给ai产品。

第三,全球层面要“多合作”:各国要多交流、多商量,比如分享ai监管经验、一起制定国际标准;发达国家要帮助发展中国家发展ai技术,比如给它们提供ai设备、培训ai人才,让所有人都能享受ai带来的好处,而不是只有少数国家受益。

最后想说的是,ai的未来不是由技术决定的,而是由我们人类决定的。如果我们能做好风险管控和伦理规范,ai就能成为我们的“好帮手”——帮我们看病、帮我们学习、帮我们工作,让生活更美好;但如果我们不管不顾,任由ai的风险和伦理问题发展,ai可能会给我们带来麻烦。所以,不管是ai企业、政府,还是我们每个人,都有责任把ai用好,让它真正服务于人类,而不是反过来危害人类。

章节报错(免登录)
最新小说: 四合院:厨神的情报系统 秦时毒药师 概念神入侵游戏,NPC艰难逃命 共梦禁欲权臣后,腰软娇娇被宠野 穿越之国公继室 小小包子五岁半,气得老爹头两瓣 同时穿越:我于万界皆无敌! 小花仙:再穿越后成了安安的弟弟 火影:助斑返老,反攻木叶 NBA:杨姓中锋,却来后卫模板