“AI教父”本吉奥:人类无法用10年时间解决AI风险和监 管问题
<“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题p>▎截至目前,本吉奥(ào)发表了300多篇学术论文,累计被引用次数超13.8万(wàn)次(cì)。吴恩达曾表示,本吉奥 的许多理论研究对他有很大启发。
钛(tài)媒(méi)体App 8月24日消息,被誉为“AI教父”的加(jiā)拿大计算(suàn)机科(kē)学家、深度(dù)学习技术先驱、2018年图灵(líng)奖(jiǎng)得主约书亚 ·本吉奥(Yoshua Bengio)公开 表示,随(suí)着ChatGPT的推出,AI技术风险的时间被压缩,不幸(xìng)的是,我们无(wú)法利(lì)用十年的(de)时间(jiān)解决AI风(fēng)险和(hé)政策监管问题,而是更短的时间,因此行业需要马上行动,加快AI安(ān)全政策(cè)落地。
“制定政(zhèng)策需(xū)要花费大量时间,它需要解决多年分歧,像这(zhè)样的立法都需要数年 时间才能颁布,需要建立一些流程,需很多年时间才能真正做好这个工作,”本吉奥对(duì)彭(péng)博社表示(shì),他现在担心可能没有太多(duō)时间来“做好(hǎo)这件事”。而且更糟(zāo)糕的是,AI风险这不仅(jǐn)是监管问题,它更是国际条约,大家需要(yào)在全(quán)球范围内解决这(zhè)个问题。
据 悉,本吉奥出生(shēng)于巴黎,成长于加拿大,现居加拿大蒙特利尔,在蒙特利尔大学(xué)(University of Montreal)计算机(jī)科学与运算系任教授。他(tā)于(yú)1991年(nián)获得加拿大麦吉(jí)尔大学(xué)计(jì)算机科学博士学位。本(běn)吉奥的主(zhǔ)要研究领域是深度学习和(hé)自然语言处理。
30余(yú)年(nián)的深度(dù)学习研(yán)究生涯里,本吉(jí)奥发表了300多(duō)篇学(xué)术论文,累计被引用次数超13.8万(wàn)次。吴恩(ēn)达(dá)曾表 示,本吉奥的许多理(lǐ)论研究对他有很大(dà)启发。
2018年“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题(nián),他与(yǔ)“神经网络之父”Geoffrey Hinton和(hé)“卷积网络之父”Yann LeCun三人因开拓深度学习(xí)技术理论而(ér)获得(dé)“图灵奖”,他们三位也被 AI 行业称(chēng)为“AI 三巨头”、“深度学习三巨头(tóu)”、“三大AI教父(fù)”。
作为“深度(dù)学习三巨头”之一的本吉奥曾指出,AI一词(cí)正在被滥用,有些公司拟人化了AI系统,仿佛AI系统是与人类相当的智(zhì)慧实体,但(dàn)其实目前(qián)还没有出现与(yǔ)人(rén)类(lèi)智慧相当(dāng)的实体。当然,他依然爱 AI 这一 技术。
本吉奥(ào)表示,在2022年底ChatGPT出(chū)现之前,他认为真(zhēn)正的 AI 风险(xiǎn)至少还要(yào)几十年才会出现,他曾经有一段时间并不怎么(me)担(dān)心AI安(ān)全问(wèn)题,并(bìng)且(qiě)认为(wèi)人类距离开发出(chū)能够与人类匹敌的 AI 技术还有“几十年的时间”,他假设我们可以在面对风险之(zhī)前“收获AI的好处”多年。
但现在,ChatGPT的推(tuī)出完全改变了他的(de)想法(fǎ)。他不再那么确定了。
他(tā)对AI发(fā)展速度(dù)的假设——以及(jí)技术(shù)对社会构成的潜(qián)在(zài)威胁——在2022年底OpenAI发(fā)布ChatGPT后(hòu)被颠覆了,因为人类水平的(de) AI 技术已经到来。
“自从(cóng)我们最终拥有了能够与(yǔ)我们对话的机器(ChatGPT)后,我完全改变了我的想法,”本吉奥表(biǎo)示,“我们现在有了能够掌握语言的AI机器。我们没想到会这么快就做到这一点。我认(rèn)为没有(yǒu)人真正预料到(dào)这一点,即使是构建这些系(xì)统的(de)人。你可(kě)以看(kàn)到,人们认为我(wǒ)们可 能还(hái)需要几(jǐ)年、几(jǐ)十年甚至更长时间才能达到人类水平(píng)的(de)智能。人们普遍认(rèn)为,一旦我们达(dá)到人类水(shuǐ)平的(de)智能,就很(hěn)难预测会发生什么——我们最终会得到(dào)非常(cháng)非常好的东西还是非常非常坏的东西,以(yǐ)及我们该如何应对(duì)。有很多不确定性。这正是我目前(qián)在科学和政策方面工作的动(dòng)力。”
在ChatGPT引发全球关于 AI 风险的讨论(lùn)之后,本吉奥开始投(tóu)入更多的精力倡导(dǎo)AI监管,并且与同为学术界和 AI 先驱的Geoffrey Hinton一起公开(kāi)支持一项(xiàng)有争议的(de)加州 AI 安(ān)全法案SB1047,该法案将使公(gōng)司(sī)在不采取(qǔ)安全预防措施的情况下,对其AI模(mó)型(xíng)造成的灾难性伤害承担责(zé)任。
本吉奥认为,这是“桌上第二重要的提案”,仅(jǐn)次(cì)于欧盟的AI法案。
当地(dì)时间8月15日,饱受争议的美国加州《前沿AI模型安全创新法案》(后称(chēng)加州AI安全法(fǎ)案SB 1047)在大(dà)幅度削弱相关条款之后 ,最终顺利通过加州众议(yì)院拨(bō)款委(wěi)员会的审核。
SB 1047旨在通过追究开(kāi)发者的(de)责任来(lái)防止大型 AI 系统造成大(dà)量人员死亡或造成损失超过 5 亿美元的网络安全事件。顺利通过审核之后,这意味(wèi)着,该法案朝着(zhe)成为正式(shì)法(fǎ)律法规迈出了重(zhòng)要一(yī)步(bù),也是美国在AI监管上迈出的重(zhòng)要一步。
但是,加州AI安全法案饱(bǎo)受争议。斯坦福 大(dà)学教授(shòu)李飞飞、Meta首席科学家杨立昆等人认为(wèi),该法案(àn)最终将会损害加州乃至美国在AI领域的领先(xiān)地位,100多位学界人士也发文反对,风投机构a16z专门建立网(wǎng)站细数法(fǎ)案六宗罪。
甚(shèn)至前美国众议院议长南希·佩洛西(xī)(Nancy Pelosi)也发声明(míng)反对此法案(àn),认为加州AI安全法案(àn)意图良好但缺乏(fá)充(chōng)分(fēn)了解,许多(duō)重要的加州科技公司学 者和负责人都(dōu)表示反对该法案,认为(wèi)它弊(bì)大于利。
最新一(yī)个反对加州 AI 法案的是OpenAI。OpenAI本周发文称,该立法将损害AI创新,并(bìng)可能(néng)对美国在 AI 和 国家安全方面的竞争力产生“广泛而重大”的影响(xiǎng)。
然而,本吉奥却表示,加州AI安全法案避免了(le)过(guò)于(yú)规定性(xìng),而(ér)是使用责任来确保AI公(gōng)司不会忽视“合理(lǐ)专家会做的”安全预防措施。“它将为(wèi)公司创造一个激励,使他们不会成为 班上最差的学生。”
本吉奥指出,围绕 AI 监(jiān)管(guǎn)的讨论可能会受到风险投资家和希望从该技术中获利的公司的影响。“你(nǐ)可以将其与气候变化、化石燃料公司等进 行类比,”他说。
“事实并非(fēi)如此,事实恰(qià)恰相反。它没(méi)有(yǒu)那么大(dà)的约束力。它并没有(yǒu)施加多大影响(xiǎng)。它(tā)只是说(shuō):如(rú)果你造成了数十亿美元的损失,你就要负责。几十年来,整个(gè)计算领域在某种程度上一直不受任何(hé)形式的监管。
我认为(反(fǎn)对派)更多的是意识形态。我真的很(hěn)担心游说团体的力量以(yǐ)及(jí) Ai 带来(lái)的数万亿甚至数千万亿(yì)的利润(加州大学伯克利分校教授、人工智(zhì)能系统中心创始人Stuart Russell表示)会激励企业反对(duì)任何监管(guǎn)。”本吉(jí)奥表示。
谈到风险(xiǎn)管控,本吉奥指出,“我(wǒ)认为自己对(duì)风险持怀疑态度。我听(tīng)到过(guò)很(hěn)多很好的论据,认为比我(wǒ)们更聪明的人工(gōng)智能可(kě)能非常危险(xiǎn)。甚(shèn)至在它们比我们更聪(cōng)明之前,它们就可能被人类以对民主极其危(wēi)险的方式使用。任(rèn)何说他们知道的人都过于自信,因为事实上,科(kē)学并没有答(dá)案。没(méi)有办法以可验证的方式(shì)回答。我(wǒ)们可以看到这样或(huò)那样(yàng)的论点(diǎn),它们(men)都是(shì)合理的。但(dàn)是如果你(nǐ)是不可知(zhī)论(lùn)者,并(bìng)且正在考虑政策,你需要保护公众免受真(zhēn)正(zhèng)糟糕的事情的伤害。这就是政府在许多其他领域一(yī)直在做的事情。没有理由(yóu)说他们不能在计算和(hé) AI 领域做到这一点。”
本吉奥反复强调,他(tā)没想到人类会(huì)这么快掌握对话式AI语音(yīn)技术,而 且目前(qián)至少达到足够人性化的(de)水平。
“我认为,对危险事物进行快速创新的渴(kě)望是不明智的。在生(shēng)物(wù)学领域(yù),当研究人员发现通过所谓的功(gōng)能获得(dé)研究可以制造出危险的病毒(dú)时,他们一起决(jué)定,好吧,我(wǒ)们 不这么做(zuò)了。让我们要(yào)求政(zhèng)府制定规(guī)则,这样如果你这样(yàng)做,至少在不受控制的情况下,你就会进监狱。”本吉奥(ào)表示,“我相信你知(zhī)道合成儿童色情制品(pǐn),也许情感上不那么具(jù)有挑战性,但更重(zhòng)要的是,同样(yàng)的深度伪造可 能会(huì)扭曲社会。那些深度伪造(zào)只会越来越好(hǎo)。声音会越来越好。视频会越来越好。还有一件事人们(men)谈论得不够:当前甚至未来的系统说(shuō)服人们改(gǎi)变想法的能力。就在几个月前,瑞士(shì)进行了一项最新研究,他们将 GPT-4 与人类进行了比较,看看(kàn)谁能说服(fú)那(nà)些显 然不知道自己是在和人交谈还是在和机器(qì)交谈的人改变对某事的看法。猜猜谁赢了(le)。”
本吉奥指出,“我们应(yīng)该在AI方(fāng)面采取类似的预防原则行为(wèi)。”
展望未来,本吉奥(ào)强调,所有(yǒu)AI技术应用依然会以健康方式(shì)改变人类的生活(huó)方(fāng)式。比如在(zài)生物学方面(miàn),AI会了(le)解身体如何运作、每个细(xì)胞如何运作(zuò),这可能会彻底(dǐ)改变医(yī)学和药物(wù)研发等(děng)领域(yù);气候方面它可(kě)以帮助制造更(gèng)好的电池、更好的(de)碳捕获、更好的能量存(cún)储。
“虽然还没有发生,但我认为这些都(dōu)是我们(men)可以用 AI 做出(chū)的很好的(de)技术产品。顺便(biàn)说(shuō)一句,这些应用——它们大(dà)部分都不是(shì)危险(xiǎn)的。因此,我们应(yīng)该在(zài)这些(xiē)显然(rán)可以(yǐ)帮(bāng)助(zhù)社会应对挑战的事情上投入(rù)更多。”本吉奥在对(duì)话结尾表示。
▎截至目前,本吉奥发表了300多(duō)篇学(xué)术论文,累(lèi)计被引用次数超13.8万次。吴恩达曾表(biǎo)示,本吉奥的许多(duō)理论(lùn)研究对(duì)他有很大启发。
钛媒体App 8月24日消息,被誉(yù)为“AI教父(fù)”的加拿大计算机科学家(jiā)、深度学习(xí)技术先驱、2018年图(tú)灵奖得(dé)主约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出(chū),AI技术风险的时间(jiān)被压缩,不幸的是,我们(men)无法利用(yòng)十年的时间解决AI风险和政策监管问题,而是(shì)更短的时间,因此行业(yè)需(xū)要马上行动(dòng),加快AI安全政策落地。
“制定政策需(xū)要花(huā)费大量时间,它需要解决多年分歧,像这样的立法都需要(yào)数(shù)年时间才能颁布,需要建立一些流程,需很多年时间才能真正做好这个(gè)工作,”本吉(jí)奥对彭博社表示,他现在(zài)担心可(kě)能没有太多时间来“做好(hǎo)这件事”。而且(qiě)更糟(zāo)糕的是,AI风险这不仅是监管问题,它更是国(guó)际条约,大家需要在全球范围内解决这个问题。
据悉,本吉奥出生(shēng)于巴黎(lí),成(chéng)长于(yú)加(jiā)拿大,现居加拿大蒙特利尔(ěr),在蒙特利尔大(dà)学(University of Montreal)计算机科学与运(yùn)算系任教授。他于1991年获得加拿大麦吉尔(ěr)大(dà)学计(jì)算机科学博(bó)士学位。本吉奥的主要研究领域是深度学习和自然(rán)语言处理。
30余(yú)年的深度学习研究生(shēng)涯里,本(běn)吉奥发表了(le)300多(duō)篇学术(shù)论文,累计被引用(yòng)次数超(chāo)13.8万次。吴恩达曾表示,本吉奥的许(xǔ)多理论研究对他有很大启发。
2018年,他与“神经网络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因开拓深度学习技术理(lǐ)论而(ér)获得“图灵奖”,他们三位也被 AI 行业称为“AI 三巨头”、“深度学习三巨头”、“三大AI教父”。
作为“深(shēn)度学习三巨头”之一 的本吉奥曾(céng)指出,AI一词正在(zài)被滥用(yòng),有些公司拟人化了AI系统,仿佛AI系统是与人类相当的智慧实体,但其(qí)实目(mù)前还(hái)没有出现与人类智慧相当的实体。当然,他依然爱 AI 这一技(jì)术。
本吉奥表示,在2022年(nián)底(dǐ)ChatGPT出现(xiàn)之前,他认为真(zhēn)正的 AI 风险至少还要几十年才会出现,他曾经有一段时间并不怎么(me)担心AI安全(quán)问题,并且认为人类距离开发出(chū)能够与人类匹敌的 AI 技术还有“几十年的时间”,他假设我们可以在(zài)面对风(fēng)险之前“收(shōu)获AI的好处”多年。
但现在(zài),ChatGPT的推(tuī)出完(wán)全改变了他的想法。他不再那么确定了。
他对 AI发展速度的假设——以及技术对社会构成的潜在威 胁(xié)——在2022年底OpenAI发布ChatGPT后被颠覆了,因为人(rén)类水平的 AI 技(jì)术已经到来。
“自从(cóng)我们最终拥有了能够与(yǔ)我们对话的机(jī)器(ChatGPT)后,我完全改变了我的想法,”本吉奥(ào)表(biǎo)示(shì),“我们现在有了(le)能够掌握语言的AI机器。我(wǒ)们没想到会(huì)这(zhè)么快就做 到这一点。我(wǒ)认为没有人真正(zhèng)预料(liào)到这一点,即使是(shì)构建(jiàn)这些系统的人。你可以看到,人们认为我们可能(néng)还需(xū)要几年、几十年甚至更长时(shí)间才能达到人类水平的智能。人们普遍认为,一旦我们达到人类水平的智能,就很难预(yù)测会发生什么——我们最终会(huì)得到非(fēi)常(cháng)非常好的东西还是非(fēi)常非常坏的东西,以(yǐ)及我们该如何应对。有很多不确定性。这(zhè)正是我目前在科学和政策方(fāng)面工作的 动力。”
在ChatGPT引发全球关于 AI 风险(xiǎn)的讨论之后,本吉(jí)奥(ào)开始投入更多的精力倡导AI监管,并且(qiě)与同为学术界(jiè)和 AI 先驱的Geoffrey Hinton一起公开支(zhī)持一项有争议的加州 AI 安全法(fǎ)案SB1047,该法案将使公司在不采取安全预防(fáng)措施的情况下,对其AI模型(xíng)造成的(de)灾难性(xìng)伤(shāng)害承担责任。
本吉奥认为(wèi),这是“桌上(shàng)第二重要的提案”,仅次于欧盟的AI法(fǎ)案。
当地时间8月15日,饱(bǎo)受争议 的(de)美(měi)国加州《前(qián)沿AI模型安全创(chuàng)新法案》(后称加州AI安全法案SB 1047)在大(dà)幅度削弱相关条款之后(hòu),最终顺利通过加州众议院拨款委员会的审核。
SB 1047旨在通过追究开发(fā)者的责任来(lái)防止大(dà)型(xíng) AI 系统造成大量人员死亡或造成损(sǔn)失超过 5 亿美元(yuán)的网络(luò)安全事件。顺利通过审核之后,这意味着,该法案(àn)朝着成(chéng)为正式法律法(fǎ)规迈出了(le)重要(yào)一步,也是美国在AI监管上迈出的重要一步。
但是,加(jiā)州AI安全法案(àn)饱受争议。斯坦福大学教(jiào)授李飞飞、Meta首席科(kē)学家(jiā)杨(yáng)立昆(kūn)等人认为,该法案最终将会损害加州乃至美国在AI领域(yù)的领先地位,100多位学界(jiè)人士也发文反对,风投机构a16z专(zhuān)门建(jiàn)立网站细数法案六宗罪。
甚至前美(měi)国众议院议长南希·佩洛西(Nancy Pelosi)也(yě)发(fā)声(shēng)明反对此法案,认为加州AI安全法案意图良好但缺乏充分(fēn)了(le)解,许多重要的加(jiā)州(zhōu)科技(jì)公司(sī)学者和负责人都表示反对该法(fǎ)案,认为它弊大于利(lì)。
最新一(yī)个(gè)反对加州 AI 法案的(de)是OpenAI。OpenAI本周发文称,该立法将损害AI创新,并可能对美国在 AI 和(hé)国家安全方面的竞争力产生“广泛而重大”的影响。
然而,本吉奥却表示,加州(zhōu)AI安(ān)全法案避免了过于规定性,而是使用责任来确保AI公司不会忽视“合理专家会做(zuò)的”安全预防措施。“它将为公司创造(zào)一个激励,使他们不会成为(wèi)班上 最差的学生。”
本 吉奥指出,围绕 AI 监管(guǎn)的讨(tǎo)论可(kě)能会受到风险(xiǎn)投资家(jiā)和(hé)希(xī)望从该技术中获利的公司的影响。“你可(kě)以将其与(yǔ)气候变化、化石燃料公司等进 行类比,”他说。
“事实并非如此,事实恰恰相反。它没 有那么大的约束力。它并没有施加多大(dà)影(yǐng)响。它(tā)只是说(shuō):如果你(nǐ)造成(chéng)了数十亿美元的损失(shī),你 就要(yào)负责。几十年来,整个计算领域在(zài)某种程度上一直不受任何形式的监管。
我认为(反(fǎn)对派)更多的(de)是意识形态。我真的很(hěn)担心游说团体的力量以及 Ai 带来的数万亿甚至数(shù)千万亿的利润(加州大学伯克利分校教授、人(rén)工智能系统中(zhōng)心创始人Stuart Russell表示)会激励企业反对任何监管。”本吉奥表示(shì)。
谈到(dào)风险管控,本吉奥指出,“我认为(wèi)自己对风险持怀疑态度。我听到过很多很好的论据,认为比我(wǒ)们更聪明的人工智能(néng)可能非常危险。甚至(zhì)在它们比我们更聪明之前 ,它们就可能被人类以对民主极其(qí)危(wēi)险的方式使用。任(rèn)何说他们知(zhī)道的人(rén)都过于自信,因为事(shì)实上,科学并没有答案。没有办法以可验证的方式回答。我们可以看到这样或那样的(de)论点,它们都(dōu)是合理的。但是如果你是不可知(zhī)论者,并且正在考虑政策,你需要保护公众免受真正糟(zāo)糕的事情的伤害。这就(jiù)是政府在许(xǔ)多其他领域一(yī)直在做的事情。没有理由说他们不能在(zài)计算和(hé) AI 领域(yù)做(zuò)到这一(yī)点。”
本吉奥反复(fù)强调,他没想到人类会这(zhè)么快掌握(wò)对话式AI语音技术,而且目前至(zhì)少(shǎo)达到足够人(rén)性化的(de)水平。
“我认(rèn)为,对危险事物进行快速 创 新的渴望是不(bù)明智的。在生物学领域,当研究人员发现通过(guò)所谓的功能获得研究可以制造出危险的病毒(dú)时,他们一(yī)起决定,好(hǎo)吧(ba),我们不这么做了。让(ràng)我们要求政府制定规(guī)则,这样如果你这样(yàng)做(zuò),至(zhì)少在不(bù)受控制的情况下,你就会进监狱(yù)。”本吉奥表(biǎo)示,“我相信你(nǐ)知道合成儿童色情制品(pǐn),也许情感上不那么具有挑(tiāo)战性,但更重要的是,同样的深度伪(wěi)造可能会扭(niǔ)曲社会。那些深度伪造只会越来越好。声音会越来越好。视频会越来(lái)越好。还有一件事(shì)人们(men)谈(tán)论得不够:当前甚(shèn)至未来的系统说(shuō)服(fú)人们改变想法的能力。就在几个月前(qián),瑞士进行了(le)一项最新研究,他们将 GPT-4 与人类进行(xíng)了比较,看看谁能说服那些显然不知(zhī)道自己是在和人交谈还是在和机器交谈(tán)的人改变对某(mǒu)事的看法。猜猜谁赢了。”
本吉奥指(zhǐ)出,“我们应该在AI方面(miàn)采取类似的预(yù)防原(yuán)则(zé)行为。”
展望未来,本吉奥强调(diào),所有AI技(jì)术(shù)应用(yòng)依然会以健康方式改变人类(lèi)的生 活(huó)方式。比如在生物学方面,AI会了(le)解(jiě)身(shēn)体如何运作、每个细胞如何运作,这可能会彻底改(gǎi)变医学和药物研发等(děng)领域;气候方面它可以帮助制造(zào)更好的电池、更(gèng)好(hǎo)的碳捕获、更(gèng)好的能量(liàng)存储。
“虽然还没有发生,但我认为这些都是我们 可以用 AI 做出的很好的技术产品。顺(shùn)便说(shuō)一句,这些(xiē)应用——它们大部分都不是危险(xiǎn)的。因此,我们(men)应该在这些(xiē)显(xiǎn)然可以帮(bāng)助(zhù)社会应对挑战的事(shì)情上(shàng)投入更多。”本吉奥在对话结尾表示。
未经允许不得转载:宁波鄞州城东医院-鄞州五官科医院-宁波耳鼻喉医院 “AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了