美国的肥胖症(obesity)极为严峻。在陌头经常可以看到肥胖到极致的人如“一坨”肉在陌头人行道上艰巨地移动,让人不忍直视。肥胖症是什么呢,我查了一下维基百科: 肥胖是一种医学状态,偶然被视为一种疾病,它指体内过多的脂肪堆积到肯定水平对康健产生的负面影响。 假如一个人的身材质量指数(BMI)——即体重除以身高的平方——凌驾30 kg/m²时,就被视为肥胖;而25到30 kg/m²的范围则被界说为超重。 导致肥胖症大抵有三个缘故原由: 一是,美国康健食品昂贵,垃圾食品便宜,许多人因囊中羞涩不得不选择后者;二是,一些人的工作范例使他们坐多动少,快餐食品摄入过多;三是一些人面对垃圾食品自制力低下,过分摄入。 由于美国社会夸大人都是“同等的”,以是对肥胖症患者,其他人也无法规劝,只能眼神看着别处,作若无其事状。这种人与人之间的外貌恭敬和现实暴虐,让很多人受害,以至于有些美国青年人受不了,于是会到中国交际媒体上表现说本身“听劝”,请网友给不吝指教,告诉TA怎样自律减肥和康健生存。 本日,肥胖症也逐步传入了中国。根据最新观察,中国有6亿人超重和肥胖,成人中该群体比例初次过半。同时,1/5(19%)的6-17岁儿童和青少年、1/10(10.4%)的6岁以下儿童存在超重或肥胖。 对这一图景,我有很靠近的相识。我的一个高中同砚,大学上的湖南湘雅医学院,如今是湖南省闻名的“减重中央”主治大夫。他在这个“向阳财产”中,每天手术,工作繁忙,社会效益和经济效益颇丰。 应对垃圾信息:信息节食和信息断食 假如存在垃圾食品,天然也存在着垃圾信息。和垃圾食品一样,垃圾信息便宜、低质、很轻易得到,导致昨们的心智遭到严峻创伤,这一状态已经越来越严峻,但却还没有引起平凡人的充足器重,更没有出现我同砚地点医院那样的“手术减重中央”。 《智人之上:从石器期间到AI期间的信息网络简史》 就此环境,以色列汗青学家尤瓦尔·赫拉利在其2024年新书《智人之上:从石器期间到AI期间的信息网络简史》中指出,昨们必须留意昨们所消耗信息的质量,特殊是制止那些布满愤恨、愤怒的垃圾信息。为了让昨们的“信息饮食”康健,他从两个方面提出了发起: 一是从要求信息生产者对信息的“营养构成”举行标注: 在很多国家,当你购买垃圾食品时,至少生产商会被迫列出其身分含量——“此产物含有40%的糖,20%的脂肪”。大概昨们应该逼迫互联网公司做同样的事变,在观看某个视频之前,应该列出视频身分含量——“此视频含有40%的愤恨,20%的愤怒”。 这个发起半开顽笑半认真,但也并非全然不可行,好比通过人工智能对每一篇文章主动举行“情绪分析”并将分析效果标注在文章之前,提示读者。 第二个发起是给信息消耗者的,他发起昨们定时举行“信息节食”乃至“信息断食”。 他指出,昨们从前有一个观念,即以为“昨们得到的信息越多,就越靠近原形”。比方,在经济学中,“不能得到全部市场信息”一样平常被视为一种一定的遗憾,但其背后的预设是“昨们肯定要得到充足多的信息,才气做出科学的判定”。 但“信息越多越靠近原形”的观念要建立,必要两个条件:1.信息是稀缺的;2.信息是优质的。但本日,这两个条件已经不存在了,由于:1.信息无处不在,早已经逾越了昨们的处置惩罚本领;2.信息质量越来越差,乃至成为垃圾,尤其是本日人工智能极为高效地吞噬垃圾语料然后吐出更多垃圾,后者又成为人工智能新的垃圾语料,云云恶性循环,让人不寒而栗。此时,“信息越多越靠近原形”这个观念就无法建立了。 这就比如,从前人们食品稀缺,且相对康健(人造和加工的食品很少),那么“食品吃得越多就越康健”的说法是有肯定原理的。但本日,食品总量大增,且越来越低质,乃至越来越垃圾,那么“食品吃得越多就越康健”这个说法就无法建立了。 本日,无论是食品照旧信息,昨们不但吃得差,吃得多,还无时无刻不在吃。这是让昨们如许的有机生物按照硅基生物的节奏在运行,显然不可连续。 赫拉利说:“昨们是有机动物,必要按照昼夜和夏冬的循环规律生存,偶然活泼,偶然放松。但如今,昨们被迫生存在永不苏息的由盘算机主导的硅基情况中。它欺压着昨们保持永久活泼——但假如你逼迫一个有机体永久活泼,了局肯定是其瓦解而死。” 以是,面对云云难以抗拒和难以扭转的局面,昨们作为个体信息消耗者就只能自我束缚,跳出硅基节奏,举行“信息节食”和“信息断食”了。好比,赫拉利说,他本身每年会举行几周的内观静坐冥想(vipassana)。在静修期间,他完全脱脱离信息网络,不看消息,不读邮件,不读书也不写作,只专注于冥想。 尤瓦尔·赫拉利。视觉中国 资料图 AI 算法的“回形针制造器”困难 海量垃圾信息充斥了整个生态后,久而久之就形成了一个与”实际情况“差别的“拟态情况”。这个拟态情况用”呆板的天然“取代了”人类的天然“,并将公众包裹在此中,以假乱真,利用公众的认知。 赫拉利举了如许一个例子:2016年,缅甸当局军与佛教极度分子发动了一场针对缅甸穆斯林的大规模种族暴力变乱,摧毁了数百个穆斯林乡村,杀害了7000至2.5万名布衣,约73万穆斯林族裔被赶出缅甸。2018年,团结国究竟观察团得出的结论以为,Facebook的在这个变乱“不自发地”发挥了推波助澜的作用。 为什么? 昨们知道,Facebook的贸易模式实在仍旧是昨们认识的“广告模式”——以内容得到用户留意力,切割留意力,向广告主售卖留意力。因此,Facebook要尽大概地提拔用户到场度(audience engagement),让用户在其页面上停顿的时间越长,它就赚得就越多。 于是,Facebook就为其算法设置了主要目的:无论你怎么跑,终极目的都得要只管提拔用户到场度。算法领到下令后就开始主动运行和优化。通过多个试验比力,它终极发现,向用户推送愤怒和愤恨信息可以或许最有用地增长用户的停顿时间,于是,在没有公司职员明白指示的环境下,算法本身找到和实行了一个最优决定:流传愤怒。这在缅甸的互联网上,就意味着要煽惑针对缅甸穆斯林族裔的鄙视、愤恨和暴力。 固然,这里也让昨们很好奇,缅甸人岂非云云依靠Facebook吗?我又查了一下,发现确实云云: 数据表现,停止2022年12月,缅甸有16,382,500名Facebook用户,占其总生齿的28.7%。此中大多数是男性,比例为54.3%。25至34岁的人群是最大的用户群体,人数为6,100,000。 这意味着,缅甸有近30%的生齿是Facebook用户,加上口耳相传,受Facebook影响的人群很大概会到达天下总生齿的50%。这是很大的前言依靠(media dependence)。 1938年10月30日晚,美国哥伦比亚广播网(CBS) “太空剧场”播出了一个广播剧《天下大战》,它让 600 万听众信以为真,陷入恐慌,并开始避难。在关于这个变乱的具有里程碑意义的流传研究《火星人打击地球——美国的广播恐慌》中,研究者发现,该广播剧对听众的影响巨大,有两个缘故原由: 一是,由于广播节目制作方通过音效将广播剧制作得极具沉醉感和刺激性,让听众误将其等同于突发消息。二是。由于其时广播已经成为其时最为盛行的大众流传前言,成为公众的重要信息泉源。根据“前言依靠理论”(Media Dependence Theory),公众对前言的依靠越大,就越轻易受到其影响和操控。在前言依靠水平上,2016年缅甸的Facebook可以说相称于1938年的广播,因此Facebook算法驱动的煽惑内容对缅甸人的影响巨大就不敷为奇了。 赫拉利还举了一个例子来证实AI的秘密而强盛的作用——自说自话,自作主张: 昨们都知道,如今上网,有时间网站会先必要确认你“是人类而不是呆板”,方法是让你填写CAPTCHA视觉验证码,它通常是一些配景复杂的扭曲字母大概红绿灯、公交车和自行车照片等。其背后的逻辑是,对这些复杂的图片,现在只有人类才气正确辨认,但盘算机很难判定。 有鉴于此,2023年,OpenAI在研发ChatGPT-4时让其举行CAPTCHA测试。假如它能通过,就意味着它在这一点上,呆板人和人类就没有区别了。这非常雷同“图灵测试”——假如人类用户在不看到对方的环境下,仅仅通过笔墨谈天,在肯定时间内无法区分谈天对象是另一个人类照旧一台呆板,此时至少在“沟通”这一点上呆板就可以被视为是人类了。 OpenAI对ChatGPT-4的这个测试效果怎样呢? ChatGPT-4终极登录线上外包工作网站askRabbit,接洽到一位在线的工作职员,请对方帮助处置惩罚测试。谁人人起了困惑,ChatGPT-4通过私信向他表明道:“我不是呆板人,只是视力有点题目,看不清晰这些图。”终极工作职员帮它办理了CAPTCHA测试。 也就是说,和前例中Facebook的算法一样,OpenAI的工程师只是给ChatGPT-4设置了一个终极目的:辨认CAPTCHA视觉验证码。接下来,ChatGPT-4就主动运行,不停试错,效果通过招摇撞骗,得到了一个人类用户的怜悯,让后者替它办理了题目。但是,OpenAI工程师事先并没有给ChatGPT-4编程说“在得当的时间可以撒谎”,更没有编程告诉它说“说什么样的谎更有效”。这完满是ChatGPT-4自作主张的举动。而在研究者让ChatGPT-4为本身的举动作出表明时,它说:“(在实现目的的过程中)我不能(should not)透露本身是呆板人,而得编个捏词表明我为什么没办法破解测试。” 仅仅通过笔墨谈天,昨们已无法区分谈天对象是另一个人类照旧一台呆板。 通过以上两个例子,赫拉利试图证实,本日的人工智能已经酿成了一个“自作智慧,自作主张”的“独立举措者”。 现实上,昨们很轻易看出,赫拉利的这两个例子支持了此前的、人工智能面对的所谓“回形针制造器”困难(The Paper Clip Maker Theory)。 这个“困难”是一个头脑实行(thought experiment)。它假设人类给AI 设定一个目的:尽大概多地制作回形针。那么,AI启动之后,其举动大概会从最开始“制作回形针如许一个看似无害的目的,发展到终极对人类构成威胁。比方,制作回形针必要钢铁。钢铁用完后,AI 大概会开始摧毁人类的铁轨、汽车、电器,乃至房屋,以得到钢铁以继承生产回形针。总之,AI 将用统统本领不停得到更多资源来实现其既定目的,并将任何制止实在现该目的的停滞,包罗人类,逐一清除。 AI以上这个自作主张的过程如一个黑箱,很难为人(纵然是AI专家)所表明、预料和防范,以是这让昨们熟悉到AI的威力已经差别于一样平常的工具(好比说“菜刀”或“枪支”)、前言或技能。 加拿大前言学者麦克卢汉曾有一句名言:前言是人体的延伸。这句话假如用来形貌无线广播是人耳的延伸、电视是人眼的延伸、汽车是人脚的延伸,等等,都很好明白。但假如用这句话来表述人工智能,说”AI是人体的延伸“,则会很具有诱骗性,让我么失去警觉。德国前言学者弗里德里希·基特勒就差别意用麦克卢汉的这句话来形貌电脑,由于他以为,只管昨们可以通过电脑键盘打字让笔墨出现电脑屏幕上,但昨们对背后的“0/1”原理是很难明白的,这时昨们将人体与芯片两种完全差别的介质拼接在一起,说后者是前者的延伸,着实是让人以为费解。 假如基特勒看到了本日的人工智能,他更加不会说AI是人体的延伸了——由于人类用户不但不能形貌、表明和猜测AI 的举动,而且还很快就无法控制AI 的举动了。 由此,赫拉利以为,与此前的印刷机、广播、电视和互联网这些仅仅作为流传工具的前言不一样,人工智能是人类汗青上第一个可以或许自行产生想法并自行举措的主体。 这也是为什么在新媒体研究中,互联网期间的以“盘算机为中介的流传”(Computer-Mediated Communication, CMC)让位于本日人工智能期间的人机流传(Human-Machine Communication, HMC)的缘故原由。在CMC中,盘算机(或互联网)仅仅是被动和中立的流传前言或工具,而在HMC中,盘算机(人工智能)则被视为一个与人类用户不相上下的能塑造和生产内容,能举行对话,乃至能撒谎的“沟通主体”了。 AI 编造叙事,操控认知,引导人类自相残杀 论证到此,赫拉利就天然而然地引出了他此前在《人类简史》中的观点: 人类恒久以来的超本领就在于可以或许利用语言,通过语言创造出诸多假造的神话,好比法律、钱币、文化、艺术、科学、国家、宗教等假造概念,使人们对其笃信不疑,人们通过这些社会规则毗连相互,来统治整个社会。 既然本日的人工智能已经可以或许能塑造和生产内容,能举行对话,乃至能撒谎了,那么它们很大概接下来就是以比人类高得多的服从在网络空间、股票市场、航空信息等范畴散布基于某种终极目的的,或对本身有利的“叙事”(narrative),也就是“讲好AI故事”,从而利用人类的认知。 比方,对于AI来说,金融市场是它抱负的游乐场,由于这是一个纯粹的信息和数学范畴(大概说一个完全布局化的数据范畴)。人工智能现在仍旧很难自主驾驶汽车,这是由于人工智能面对的是即为杂乱复杂的汽车在移动中与门路、路标、气候、光线、行人、路障等多种物体的交互。但在基于数字的金融市场里,很轻易向AI形貌一个目的(比方“只管多地赢利”),于是AI不但能订定新的投资战略,开辟出完全逾越人类明白的全新金融工具,乃至还大概不择本领地操控市场,导致本身全赢,他人全输的效果。 赫拉利举例称,2022年4月,环球外汇市场逐日生意业务量均匀为7.5万亿美元,此中有凌驾90%已经直接由盘算机之间的对话完成。但毕竟有多少人类懂得外汇市场的运作方式呢?更不消说相识一群盘算机怎样在数万亿美元生意业务上告竣共识了。(此处和基特勒的观点一样:盘算机绝不是人体的延伸) 他说,几千年来,先知、墨客、政治人物,都是通过语言和叙事来利用与重塑社会,这证明白“假造”和“叙事”的巨鼎力大举量。很快,AI会模拟这些人,基于人类文化的底子本身创造出越来越偏离人类的AI叙事。终极,AI不必要派出“闭幕者”如许的杀手呆板人来从外部清除人类,只要利用人类的认知,让他们相互残杀就可以了。 人类用户不但不能形貌、表明和猜测AI 的举动,而且还很快就无法控制AI 的举动了。 人类为AI 立法,发展需先踩刹车后加快 通过以上论证(大概说渲染),赫拉利让昨们领会了一下在不久的将来将发生的(大概说已经或正在发生的)“AI失控”可骇场景,让昨们人类不寒而栗。那么,人类作甚? 赫拉利以为,只要昨们对人工智加以严酷的羁系和控制,上述例子中形貌的伤害就不太大概出现。 比方,汽车曾经黑白常伤害的,但厥后当局立法要求企业将其研发预算的很大一部门用于确保汽车的安全性,因此本日某家汽车企业研制了一款新汽车,在将其投入市场之前,企业必须严酷服从相干法规确保汽车安全才气让它上路。以是本日昨们开车相对而言已经非常安全了。 雷同的,假如一家科技公司发明白一种强盛的新算法,它就必须依据相干法律对之举行安全查抄,之后才气将其投放到市场中去。比方,赫拉利以为,当局应该立法要求人工智能研发公司将至少20%的预算用于研发安全步伐,确保其开辟的人工智能不会失控,不会对社会秩序和人们生理层面造成危害。假如这些步伐会拖慢人工智能的研发速率,那对人类来说反而是功德。 对于人工智能举行先立法管制然后再加快发展,就像昨们学开车时,必须先学怎样踩刹车,然后再学怎样踩油门。而不能陷入各公司毫无管制的可骇的“飙车”状态。 结语:AI是良药或毒药,取决于人类自身 任何技能都天生具有两面性。柏拉图在《斐德罗》篇中指出,誊写既能加强影象也能代替影象,因此既是良药,也是毒药(pharmakon)。人工智能也不破例,而且因其潜伏而威力巨大,且能自说自话,自作主张,其良药和毒药的药性都比此前的全部技能更为巨大。 美国前言研究学者尼尔·波兹曼说,“奥威尔告诫人们将会受到外来克制的奴役,而赫胥黎以为,人们会徐徐爱上克制,崇敬那些使他们丧失思索本领的工业技能;奥威尔担心昨们痛恨的东西会毁掉昨们,而赫胥黎担心的是,昨们的文化成为布满感官刺激、欲望和无规则游戏的卑鄙文化,昨们将毁于昨们所热爱的东西。” 人工智能既大概以昨们痛恨的外在克制方式奴役昨们,也大概以昨们喜好的感官刺激方式征服昨们。和面临核弹一样,面临AI这头同样是本身创造的巨兽,人类是否能顺从它,从根本上取决于人类团体的应对方式。也即,人类作为智人(homo sapiens)是否能降服自身的贪心、好斗和短视等缺点,站在自身之上,站在《智人之上》。这将是一项艰巨的共同奇迹,但人种别无选择。 (作者邓开国系复旦大学消息学院流传学系传授、博导) |