中新社北京5月17日電 (記者 劉育英)人形機(jī)器人的發(fā)展正在提速。如何防范機(jī)器人失控,中國(guó)工程院院士譚建榮17日在一個(gè)論壇上表示,“馴服”機(jī)器人有三個(gè)路徑。
在當(dāng)日舉行的2024搜狐科技年度論壇上,譚建榮表示,有學(xué)者預(yù)言,生成式人工智能、元宇宙數(shù)字空間和擬人化機(jī)器人三項(xiàng)技術(shù)交叉融合匯聚,將產(chǎn)生真正的顛覆性變化。
譚建榮認(rèn)為,這一預(yù)言并非危言聳聽(tīng),人類發(fā)展就是通過(guò)科學(xué)技術(shù)進(jìn)步產(chǎn)生的。
對(duì)于機(jī)器人可能存在的風(fēng)險(xiǎn),譚建榮表示,人工智能所有的安全風(fēng)險(xiǎn)在機(jī)器人當(dāng)中都存在,機(jī)器人一旦控制失效,出現(xiàn)故障將是災(zāi)難性的。但人類可以“馴服”機(jī)器人。機(jī)器人學(xué)界有三項(xiàng)原則,一是機(jī)器人不可以傷害人,二是機(jī)器人必須服從人,三是在第一、二點(diǎn)不矛盾的前提下機(jī)器人可以自我保護(hù)。
譚建榮介紹,“馴服”機(jī)器人有三個(gè)路徑,一是通過(guò)安全規(guī)范和法規(guī)進(jìn)行人工智能風(fēng)險(xiǎn)防范;二是通過(guò)大樣本訓(xùn)練使得機(jī)器人服從人的指揮;三是劃出一些安全警戒線,防范機(jī)器人“做壞事兒”。
譚建榮認(rèn)為,目前機(jī)器人和人工智能都還是輔助工具。相信控制機(jī)器人的程序算法還在人的控制之中。首先要堅(jiān)守法律規(guī)定、技術(shù)規(guī)范、技術(shù)標(biāo)準(zhǔn)。其次,要將倫理、規(guī)范、技術(shù)融合起來(lái),使得機(jī)器人造福于人類。(完)