【編者按】
機(jī)器人心理學(xué)家和賽博格人類學(xué)家都在研究人類和機(jī)器人互動方式,學(xué)者們的結(jié)論是,人類和機(jī)器人仍然相互需要。本文摘自《人與機(jī)器人:創(chuàng)造機(jī)器人的終極目標(biāo)是什么》([荷] 本尼·莫爾斯 / [荷] 尼斯克·韋爾貢斯特 著,嚴(yán)笑 譯,貴州人民出版社/輕讀文庫·T文庫2024年1月出版)。
認(rèn)識機(jī)器人心理學(xué)家
在短篇小說集《我,機(jī)器人》中,科幻作家艾薩克·阿西莫夫塑造了一個重要角色,機(jī)器人心理學(xué)家蘇珊·卡爾文——“新科學(xué)的第一位偉大實踐者”。當(dāng)機(jī)器人的行為與預(yù)期不同,機(jī)器人心理學(xué)家就會被叫來幫忙。阿西莫夫的機(jī)器人是為人類服務(wù)的,但它們有自己的個性,經(jīng)常在機(jī)器人的道德法則中發(fā)現(xiàn)意想不到的漏洞,但依照編程它們又必須遵守。在故事中,蘇珊·卡爾文是一個缺乏幽默感的書呆子,她與機(jī)器人的相似之處多于人類:“我自己也被稱為機(jī)器人。”當(dāng)被問及機(jī)器人和人類是否有那么大的不同時,她回答說:“人與機(jī)器人生活在不同的世界。機(jī)器人的本質(zhì)是好的?!边@位虛構(gòu)的機(jī)器人心理學(xué)家的工作是理解人類和機(jī)器人的復(fù)雜互動。
機(jī)器人心理學(xué)家聽起來像是一個未來職業(yè),但現(xiàn)在有幾個人正做著類似的工作,比如美國人高山萊拉和安珀·凱斯。憑借認(rèn)知心理學(xué)家的專業(yè)背景,高山研究了人類與機(jī)器人的互動。她在加州經(jīng)營Hoku實驗室。在那里,她代表機(jī)器人制造商研究人們?nèi)绾卧趯嵺`中應(yīng)用機(jī)器人?!堵槭±砉た萍荚u論》將她列入了35歲以下的35位最佳創(chuàng)新者名單。高山也位列“機(jī)器人領(lǐng)域你必須了解的25位女性”之中。
安珀·凱斯自稱是賽博格(cyborg)人類學(xué)家。她堅持認(rèn)為,我們每天密集地使用智能手機(jī)、平板電腦、臺式電腦和機(jī)器人,已經(jīng)讓我們都變成了賽博格。凱斯在著名的麻省理工學(xué)院媒體實驗室和未來公民媒體中心工作,在那里她研究人們?nèi)绾翁幚戆C(jī)器人在內(nèi)的數(shù)字技術(shù)。她經(jīng)常在科技會議上發(fā)表演講,并著有兩本書:《賽博格人類學(xué)插圖詞典》(AnIllustrated Dictionary of Cyborg Anthropology)和《構(gòu)建寧靜技術(shù)》(Designing Calm Technology)。
我們采訪了安珀·凱斯和高山萊拉,意在探討人類和機(jī)器人協(xié)同工作的最佳方式,以及這對機(jī)器人的設(shè)計有什么影響。
夸大的廣告還是超出預(yù)期的產(chǎn)品
高山萊拉與蘇珊·卡爾文似乎剛好相反。她開朗、友好,經(jīng)常大笑,很有幽默感。但是她不喜歡科幻小說?!拔矣X得科幻小說太男性化了。對男性和女性的形象刻畫往往很刻板。我很小的時候就對它失去了興趣?!?/p>
在加州的一次招聘會上,高山遇到了來自機(jī)器人公司柳樹車庫(Willow Garage)的員工,這家機(jī)器人PR2的制造商已經(jīng)倒閉了。在談話中高山意識到,她的公司需要一位心理學(xué)家來研究用戶和PR2的互動。
被要求設(shè)計遠(yuǎn)距臨場機(jī)器人時,她就愛上了機(jī)器人,“因為這種遠(yuǎn)距臨場機(jī)器人是用來幫助兩個人實現(xiàn)互動的,所以這個機(jī)器人必須盡可能隱形”。
遠(yuǎn)程臨場機(jī)器人差不多就是一個聯(lián)網(wǎng)的平板電腦屏幕,安裝在支架上。它有兩個輪子,就像一臺電力代步車。比如,如果你不能親自參加會議,有了遠(yuǎn)距臨場機(jī)器人,即使你身在其他地方,仍然可以參會。你的臉會顯示在電腦屏幕上,你可以看到現(xiàn)場情況并參與討論,甚至在隨后的招待會上你可以在客人中四處走動。
高山說:“在設(shè)計遠(yuǎn)距臨場機(jī)器人時,你會面臨這樣的問題:它應(yīng)該有多高?它應(yīng)該長什么樣子?這些就是我研究的問題?!贝蠹s在同一時間,《生活大爆炸》劇組找到了她,因為劇組想在電視劇中使用遠(yuǎn)距臨場機(jī)器人。結(jié)果就出現(xiàn)了現(xiàn)在著名的“Shelbot”(謝爾頓機(jī)器人)。
從那以后,高山花了近10年的時間研究人類和機(jī)器人的互動,她得出了一個十分確定的結(jié)論:“機(jī)器人領(lǐng)域有一個傳統(tǒng),那就是承諾太多,兌現(xiàn)太少。我們得到承諾,一個機(jī)器人可以幫我們做所有家務(wù),但目前我們得到最好的就是一個掃地機(jī)器人?!?/p>
根據(jù)高山的說法,機(jī)器人開發(fā)者應(yīng)該更誠實地說出他們的機(jī)器人能做什么,做不到什么。例如,她研究了人們最開始使用的恐龍機(jī)器人玩具Pleo。Pleo的行為設(shè)計模仿了一只一周大的小恐龍。它能聽、能發(fā)出聲音,還能走路。
在她的實驗中,一些用戶被告知:“Pleo在想法和感受上和你一樣多變?!绷硗庖恍┤藙t不會有那么高的期待值,他們會被告知:“這個機(jī)器人理解和交流的能力有限?!比缓螅脩粲袡C(jī)會和機(jī)器人一起玩。他們和玩具恐龍說話并觀察它的反應(yīng)。
高山發(fā)現(xiàn),期待值較低的用戶比一開始期待值較高的用戶體驗滿意度更高。她將這一結(jié)論推廣于一般的機(jī)器人。“對機(jī)器人的期待要切合實際,這一點至關(guān)重要,絕對不要承諾太多。你能做的最好的事情就是少承諾、多兌現(xiàn)?!?/p>
高山認(rèn)為,一個長相接近人類的機(jī)器人會將人們的期待值拉到機(jī)器人不可能達(dá)到的程度。她說:“機(jī)器人服務(wù)于人類,并不意味著機(jī)器人的長相也應(yīng)該接近人類?!?/p>
除了對機(jī)器人的期待要更切合實際外,她還認(rèn)為機(jī)器人應(yīng)該更善于表達(dá)它們在想什么?!凹僭O(shè)一個機(jī)器人走向一扇門,然后站著不動。附近的人都不知道它要干什么。它是在考慮如何開門,還是在想別的事情?機(jī)器人活動在我們的世界里,所以它們應(yīng)該適應(yīng)我們,而不是我們反過來適應(yīng)它們。很容易想象,當(dāng)它看著門時屏幕上可以出現(xiàn)文字,表達(dá)它的思考內(nèi)容。人們可以清楚地知道,它正在考慮如何打開大門?!?/p>
硅谷烏托邦VS.寧靜技術(shù)
與高山萊拉相比,賽博格人類學(xué)家安珀·凱斯更精通科學(xué)知識。事實上,凱斯認(rèn)為,要想了解當(dāng)今人類如何與機(jī)器人打交道,我們就不能忽視科幻小說創(chuàng)造的機(jī)器人的集體神話?!帮@然,在20世紀(jì)早期,人們對伴隨工業(yè)革命產(chǎn)生的機(jī)器有強(qiáng)烈的人格化需要。這種‘人格化’以機(jī)器人的形式出現(xiàn),它走路像人,說話像人,行動像人。類人機(jī)器人是科幻書籍和科幻電影的遺產(chǎn)?!?/p>
凱斯說,科幻小說的遺產(chǎn)已經(jīng)讓我們對機(jī)器人期望過高?!拔覀兊纳眢w會經(jīng)歷出生、成長、變化、最后死亡的過程,這一事實將永遠(yuǎn)把我們與機(jī)器人區(qū)別開來?!彼龍远ǖ卣f,“事實一直如此?!?/p>
和高山一樣,凱斯也認(rèn)為機(jī)器人開發(fā)者應(yīng)該設(shè)定更切合實際的期待?!八麄冃枰f清楚:這些是我們機(jī)器人的局限所在。然后應(yīng)該回答用戶,如何在這些限制范圍內(nèi)最大程度地利用機(jī)器人。那些人類自己可以做得更好的工作,就不應(yīng)該制造機(jī)器人去做。機(jī)器人服務(wù)員?我認(rèn)為成不了。社交類的工作,比如聊天和微笑,還是人類做得更好。”凱斯是“寧靜技術(shù)”概念的擁護(hù)者?!皩庫o技術(shù)”指的是那些不會一直把自己推薦給別人的技術(shù)。許多智能手機(jī)應(yīng)用程序,設(shè)計得盡可能長時間地占用我們的注意力。寧靜技術(shù)則盡可能不打擾別人,讓人類過上自己想要的生活?!霸?1世紀(jì),注意力是最寶貴的商品。這就是為什么寧靜技術(shù)不要求我們?nèi)褙炞?,只在最必要的時候占用一點點注意力?!?/p>
她最喜歡的例子是水壺?!澳惆阉旁谒畨乩铮缓箅x開去做別的事情,等到水開了,它就會提醒你。你不必一直在水壺旁邊等?!?/p>
說到機(jī)器人,凱斯認(rèn)為掃地機(jī)器人和機(jī)器海豹帕羅(Paro)是寧靜技術(shù)的優(yōu)秀案例。帕羅被用作治療護(hù)理機(jī)器人,幫助失智的老年人。“它們都會恰到好處地給用戶一些反饋。掃地機(jī)器人完成工作時會發(fā)出歡快的聲音,卡住時會發(fā)出悲傷的聲音。這讓它很可愛。機(jī)器海豹不會做出照顧老人的姿態(tài),而是讓老人來照顧它,這讓人感覺更好。當(dāng)你撫摸它的時候,它會發(fā)出聲音,會轉(zhuǎn)頭,還會眨眼?!?/p>
寧靜技術(shù)的一個重要設(shè)計原則,是讓技術(shù)做它最擅長的事,也讓人類做他們最擅長的事。這意味著機(jī)器人沒必要成為人類(比如一個機(jī)器人服務(wù)員),而人類也不應(yīng)該成為機(jī)器人(連續(xù)數(shù)小時一直做重復(fù)的困難工作、執(zhí)行復(fù)雜的計算或搜索命令)。
凱斯說:“機(jī)器人和人工智能的設(shè)計師應(yīng)該問問自己,需要做出哪些優(yōu)化才能真正改善人們的生活。我看到很多不必要的技術(shù)被研究出來,因為制造者認(rèn)為這很酷,但是幾年后它就消失在抽屜里了。能否真正幫助消費(fèi)者解決問題卻往往成了次要的。家里真的需要像亞歷克薩這樣的語音助手嗎?我們真的需要智能冰箱嗎?我們真的想讓孩子玩會說話的機(jī)器人娃娃嗎?”根據(jù)凱斯的說法,機(jī)器人可以做很多有用的事情,而不是生硬地與人類對話,然后還不經(jīng)用戶允許就把各種數(shù)據(jù)發(fā)送給制造商?!拔覀冃枰牟皇枪韫葹跬邪睿皇菣C(jī)器人統(tǒng)治世界的反烏托邦式幻想。我們需要一個現(xiàn)實的視角,讓機(jī)器人做一些人類不能做、不想做的事,以及更適合機(jī)器人做的事?!?/p>
機(jī)器人與人類的最佳比例是多少?
確定人類和機(jī)器人協(xié)作的理想比例,是一個需要不斷平衡的過程。哪怕世界上自動化程度最高的行業(yè)——汽車行業(yè)——也是如此。你可能認(rèn)為,使用更多的機(jī)器人會自動帶來更高效的生產(chǎn),但在2014年,日本汽車制造商豐田反而用人工取代了一小部分機(jī)器人。這是為什么呢?
問題在于,機(jī)器人仍然不能理解它們在做什么、應(yīng)該如何做、如何改進(jìn)工作。好的手工藝人可以做到這些。豐田注意到,在使用太多的機(jī)器人之后,缺失的恰恰是那些手工藝人:整個生產(chǎn)過程有96%都由機(jī)器人完成。豐田這樣解釋:“我們不能簡單地依賴機(jī)器,因為機(jī)器只能一次又一次地重復(fù)同樣的工作。要成為這臺機(jī)器的主人,你必須有相應(yīng)的知識和技能才能控制這臺機(jī)器?!?/p>
重新起用訓(xùn)練有素的工匠,使豐田能夠減少汽車曲軸生產(chǎn)中10%的浪費(fèi)。后來,該公司再次將少量機(jī)器人替換為人工,使生產(chǎn)過程中的其他環(huán)節(jié)也節(jié)省了成本。不久之后,德國汽車制造商梅賽德斯也用人工取代了一些機(jī)器人。
豐田的例子表明,機(jī)器人并不總是越多越好,找到恰當(dāng)?shù)钠胶恻c很重要。這樣一來,人類和機(jī)器人協(xié)作會比某一方獨(dú)立完成效果更好。找到這個平衡點是人類與機(jī)器人合作的法門。
廢墟之中:搜救機(jī)器人
在災(zāi)難之后使用機(jī)器人是真正意義上的攸關(guān)生死的大事。每年有100萬人在地震、洪水、泥石流、礦難、工業(yè)災(zāi)害中失去生命。
2008年,美國得克薩斯州農(nóng)工大學(xué)的羅賓·墨菲創(chuàng)立了“無國界機(jī)器人專家”項目,旨在訓(xùn)練志愿者學(xué)會使用她和同事開發(fā)的搜救機(jī)器人。和高山萊拉一樣,羅賓·墨菲也位列“機(jī)器人領(lǐng)域你需要了解的25位女性”。
當(dāng)災(zāi)難來襲,無國界機(jī)器人專家可以使用地面機(jī)器人、定位機(jī)器人和水下機(jī)器人加以應(yīng)對。這些機(jī)器人大部分是半自動半遙控的。它們主要用于幫助救援人員評估建筑、橋梁等基礎(chǔ)設(shè)施是否足夠安全,以便派人前往救援。墨菲說:“機(jī)器人是我們的眼睛、耳朵和手,人類可以用它們遠(yuǎn)程評估受災(zāi)程度并進(jìn)行干預(yù)。這很重要,因為這些機(jī)器人可以幫助減少災(zāi)難帶來的損失,這樣當(dāng)?shù)鼐用窬涂梢愿斓刂胤导覉@?!?/p>
2011年日本海嘯發(fā)生后,潛水機(jī)器人幫助人們監(jiān)測沿海地區(qū)基礎(chǔ)設(shè)施的破壞情況。多虧了會游泳的機(jī)器人,如果全部工作都由人類潛水員自己完成,這項工作不會提前整整6個月就結(jié)束。
墨菲解釋說,搜救機(jī)器人完全依賴于人類和機(jī)器人的良好合作。她研究了搜救機(jī)器人在2001年紐約雙子塔遇襲事件中首次使用的情況,得出的結(jié)論是,所有失敗的機(jī)器人任務(wù)中,有一半以上都?xì)w咎于人為失誤。墨菲說:“例如,在礦難發(fā)生后,機(jī)器人需要通過電纜與操作員溝通。它們不使用無線通信,因為在坍塌的礦井里,無線通信要么無法工作,要么太不可靠。但有時我們看到,人類操作員會讓機(jī)器人行駛在自己的電纜上,這一操作會導(dǎo)致電纜損壞,以至于機(jī)器人無法同外界交流。機(jī)器人設(shè)計師往往對操作員期望過高?!?/p>
墨菲還總結(jié)道,機(jī)器人操作員不應(yīng)該在操作的同時還要在屏幕上尋找幸存者:“那樣做太費(fèi)神了。如果在操作員之外,還有另外一個人負(fù)責(zé)尋找幸存者,那么找到幸存者的概率就會提高9倍?!?/p>
機(jī)器人化的悖論:依然需要人類
談到機(jī)器人化時,人們經(jīng)常忽視的一點是,每個機(jī)器人的設(shè)計、制造、編程、維護(hù)、修理實際上都由人類完成。機(jī)器人在執(zhí)行任務(wù)時通常也處于人類的監(jiān)督下,這意味著即使是機(jī)器人系統(tǒng),實際上也是人類和機(jī)器在共同協(xié)作。因此,為了使機(jī)器人系統(tǒng)以最佳狀態(tài)發(fā)揮作用,人類因素也必須考慮進(jìn)來。
1983年,英國心理學(xué)家麗莎娜·班布里奇在科學(xué)論文《自動化的諷刺》(Ironies of Automation)中指出,隨著自動化程度的提高,一旦自動系統(tǒng)真的犯錯,人類干預(yù)會變得更加重要。而且這些錯誤總是有機(jī)會發(fā)生,尤其是在開放系統(tǒng)意外不斷的情況下。班布里奇的觀點被稱為“自動化的悖論”。
盡管由于應(yīng)用了自動駕駛技術(shù),航空工業(yè)的安全系數(shù)呈指數(shù)級增長,但我們?nèi)匀徊粫俗鴽]有人類飛行員的飛機(jī)。這完全合理,因為人類飛行員加上自動駕駛系統(tǒng)的組合比單獨(dú)一個人類飛行員或者單獨(dú)一套自動駕駛系統(tǒng)要安全得多。
當(dāng)被問及未來某一天是否會允許飛機(jī)在沒有飛行員的情況下飛行,英國航空公司飛行員協(xié)會的航空專家史蒂夫·蘭迪回答說:“我們知道很多人對這個未來設(shè)想感到興奮,但也擔(dān)心他們可能會忘記乘無人駕駛飛機(jī)旅行的實際情況。每一次,當(dāng)自動駕駛系統(tǒng)不能正常工作時,還是需要人類飛行員進(jìn)行干預(yù)?!?/p>
自從自動駕駛技術(shù)引入民用航空以來,由于人類飛行員與自動駕駛系統(tǒng)配合不佳,已經(jīng)造成若干起空難事故發(fā)生,還有一些事故差點就發(fā)生了。有一個臭名昭著的例子:2009年2月25日,土耳其航空公司一架飛往阿姆斯特丹的航班墜毀。當(dāng)飛機(jī)接近史基浦機(jī)場時,高度計突然指示當(dāng)前飛行高度為負(fù)2米。自動駕駛系統(tǒng)以為飛機(jī)已經(jīng)著陸,于是迅速降低了引擎功率。而人類飛行員沒有及時注意到這個錯誤,于是飛機(jī)在跑道附近墜毀了。事故造成9人死亡,120人受傷。
一旦我們的汽車和卡車開始自行做更多決定,在航空工業(yè)上經(jīng)常發(fā)生的事故也會發(fā)生在道路上。和航空領(lǐng)域一樣,無人駕駛汽車可以明顯減少交通事故發(fā)生,因為90%以上的事故都由本可避免的人為失誤造成。但是當(dāng)汽車犯了一個錯誤而人類無法及時糾正時,無人駕駛汽車也會造成新型交通事故。
機(jī)器人和人類的合作將帶來新的挑戰(zhàn)。我們將如何應(yīng)對這種責(zé)任上的轉(zhuǎn)變?人類更傾向于相信機(jī)器而不是自己的常識,我們該如何應(yīng)對這一心理?當(dāng)機(jī)器人掌握了人類的技能并取而代之時,人類的能力往往會退化,我們又該如何應(yīng)對這一狀況?人類無疑會為這些問題找到解決方案,但人類和機(jī)器人共同協(xié)作的最佳狀態(tài)不會自動到來。
艾薩克·阿西莫夫創(chuàng)造的角色蘇珊·卡爾文,臨終時回顧了自己一生的事業(yè),她說:“曾經(jīng)有一段時間,人獨(dú)自面對宇宙,沒有朋友?,F(xiàn)在他創(chuàng)造了機(jī)器人來幫忙,這些機(jī)器人更強(qiáng)壯、更有用,也絕對忠誠。人類不再孤獨(dú)。你有這樣想過嗎?”