二十一世紀機器人新律

如果我們對AI的想像力只及於將AI自動化當作降低人力成本、替代人類勞動力的方法,我們不只被毫無創意的「成本病」綁架,還失去與AI一起邁向理想社會的契機。是時候該討論如何更積極介入由AI打造的新社會了,而不只是讓演算法黑箱作業。也不能只是批評演算法,而是要在政策、立法和倫理議題上,有具體的原則和作法,建立課責制度,當AI產品違反社會秩序時,我們有完善的制度可以追究責任。

作者巴斯夸利不只在學術領域卓然有成,更在政府部門擔任諮詢委員,提供建議供現下邁向AI社會的指引。於書中,他先向艾西莫夫「機器人定律」致敬,再提出「機器人新律」,作為我們與AI互動的準則。

第一、機器人系統與人工智慧應為補充與輔助專業人士的角色,而非取代專業人士的工作。

第二、機器人系統與AI不應該假冒人性。

第三、機器人系統與AI不得強化零和軍備競賽。

緒論

追求科技發展的風險日益上升,只要運用越來越便宜的微型無人機,再結合人臉辨識資料庫,你就能擁有前所未見、精準且致命的全球性暗殺力量,而且這股暗殺力量是匿名的。科技是把雙面刃,能殺人也能助人;倘若我們在科學研究發展中注入更多投資,機器人能大幅拓展醫藥進步的途徑;企業也已逐步將聘僱流程、客戶服務、甚至公司管理都予以自動化。這些發展都改變了機器與人類之間日常的平衡。

想要好好利用人工智慧(Artificial Intelligence,簡稱AI)的商業潛力,同時又想避免發展AI而造成的不良後果,關鍵在於我們如何有智慧地促進人與機器之間的平衡。為了達成這個目標,也為了改善我們的生活,本書提出三個論點:首先是從實證經驗所獲得的心得,就目前而言,AI和機器人與人類勞動力之間,大部分時候是互補的,而非互相取代的關係;其次是價值的選擇,意即在很多場域,我們必須選擇維持現狀的平衡關係;最後一個重點則是個政治判斷,我們的治理機制確實能夠達成人機平衡的結果。因此,本書的基本前提是,我們現在已經擁有工具,能夠引導自動化科技,而非受到自動化科技的侷限,或者因而被迫轉型。

很多人會認為這些想法只是基本常識,為何需要寫一本書來論述?因為這些想法裡面蘊含驚人的意涵,而這些意涵將會改變我們如何組織社會合作關係,以及處理衝突的方式。舉例來說,當下有太多經濟體倚重資本、輕忽勞動,偏重消費者勝過生產者,假如我們想要一個正義且永續的社會,就必須修正這樣的偏斜現象。

然而,修正並非容易之事。無所不在的管理顧問專家會告訴你未來工作的單一想像;他們說,假如機器可以記錄與模仿你做的事情,你就會被取代[1]。機器將會導致大量失業的說法,已經盤據政策制定者的腦袋,這種說法也預言功能更為強大的軟體、機器人與預測分析,將使人類成為多餘的勞動力。這說法還可以繼續延伸下去,主張管理階層只要有足夠的攝影機與感應器,就可以模擬出你的「雙重數據」(data double)——一種可以複製你的日常數據資料、執行你工作的全像攝影(hologram)或機器人,而花費的成本只需要你薪水的一小部分;因此,若不是製造機器人,就是被機器人取代[2],只有二擇一的結果。但是,這種看法是僵化、缺乏變通的。

我們還有另一種可能的想像,而且這種想像的確更為合理。事實上,對各行各業來說,機器人(robotics)系統可以讓勞動力變得更有價值,而非貶抑勞動力的價值。這本書討論醫生、護理、老師、居家照護服務員、記者,以及其他「與」機器學家或電腦科學家共同工作的人,他們才是故事的主角,而不只是被化約成機器運算的資料來源,最終遭到取代。他們的合作關係,預示了科技進展可以帶來更好的醫療照護與教育等多重面向的好處,同時又能維持有意義的工作。他們的故事也展現出法律與公共政策能夠如何協助人類,達到與機器和平共存的目標,而不是帶來「人類與機器的對決」。因此,我們唯有更新機器人發展法則,指引我們對於科技進展的想像,才能達到共利共榮的未來。

以撒.艾西莫夫(Isaac Asimov)的機器人定律

以撒.艾西莫夫在一九四二年所發表的作品《轉圈圈》(Runaround)中,提出著名的機器人三定律。以撒.艾西莫夫在該書中所描寫的機器人,可以感測周邊環境、處理資訊,並且據以行動[5]。《轉圈圈》的故事中提到一本來自二○五八年的《機器手冊》第五十六版(Handbook of Robotics, 56th Edition),書中提出機器人三定律的命令:

1. 機器人不得傷害人類,或坐視人類受到傷害。
2. 在不違反第一定律的前提下,機器人必須服從人類的命令。
3. 在不違反第一與第二定律的前提下,機器人必須保護自己。

艾西莫夫的機器人三定律對後世影響甚大,這些定律看似清晰,但卻不容易應用;例如,一部自主運行的無人機可不可以炸掉一個恐怖份子組織陣營?機器人第一定律的前半段(「機器人不得傷害人類」)似乎是禁止這樣的行為,然而,一個機器人士兵可能很快就陷入第一定律後半段的兩難(「禁止「坐視人類受到傷害」的行為),到底要遵守第一定律的前段還是後段?因此,我們必須再檢視其他的價值標準[6]。

這類曖昧模糊的情形,不會僅僅出現在戰場上。舉例來說,試想,艾西莫夫的機器人定律能不能允許機器智慧車?人類發展自動駕駛汽車(簡稱自駕車)的目的之一,在於降低每年數千件交通事故與傷亡人數。這個問題第一眼看似簡單又直接,但是,換個角度想,自駕車也可能造成數以萬計的職業駕駛失業;政府能不能基於造成失業的疑慮,就禁止或限制自駕車的發展?艾西莫夫的三大定律其實沒那麼清楚明暸。三大定律中沒有一條能適用於近年熱門的自駕車發展熱潮:近年來的實際情況是,為了讓自駕車能夠更容易運作,行人還必須經過訓練並調整其用路方式,否則可能會遭到處罰。

像這類或其他許多的模糊空間,就是與機器人和人工智慧相關的法律規範和判決比艾希莫夫三定律更細緻的原因,因此,本書將深入探索這片法律境域。在此之前,我要先用機器人四大新律來介紹本書接下來的思路[7]。四大新律是用來指引人類如何建構機器人,而非應用在機器人本身[8]。雖然比起艾西莫夫三大定律,四大新律可能創造更大的模糊空間,但卻也更適切地反映出真實世界的法制是如何被(曖昧地)建構起來。立法者不可能精準預測所有主管機關需要進行規範管理的實際情況,因此通常會以概括原則性的法規文字,授權給行政機關執行。因此,當我們將特定權力委任給有科技經驗的專業立法者時,機器人律法勢必也會是概括式的原則[9]。

機器人四大新律

基於上述目標,本書將深入探討機器人四大新律。

1. 機器人系統與人工智慧應為補充與輔助專業人士的角色,而非取代專業人士的工作[10]。

因為科技會造成失業的說法,促使社會大眾開始討論未來的工作。有些專家預測,所有的工作都將因科技的進展而消失;有些專家則指出自動化發展路上的障礙與限制。政策制定者所關心的問題是,對於機器人技術的發展,什麼樣的限制是合理的?而哪些障礙應該再仔細評估和予以移除?例如,切肉機器人的發明,好像頗為合理,但是,托嬰機器人(robotic day care)就讓有些人質疑。對托嬰機器人的擔憂,是一種單純盧德主義式[11]的反應?還是蘊含著對於人類孩童成長的本質,有其他更深層的反省與思考?再舉個例子,與執照相關的現行法規,規定分析疾病病理症狀的應用軟體,不得以醫生診斷之名行銷。究竟,這些限制作法究竟是不是好的政策?

本書分析這些案例,並且引進經驗面向與規範面向的論證角度,主張在各領域採用AI時,應該減緩或加速的原因。這裡涉及很多重要因素的考量,尤其會因工作與管轄權面向而異,但是若能發展出一個統一、有組織性的原則,就等於是對人的自我價值,以及對社群治理做出有意義的工作。自動化議題中的人性思維,本書會優先著重在協助勞工職場與勞動專業的創新;這些人性思維會讓機器做危險或細瑣的工作,同時也確保目前做這些工作且未來可能由機器替代的勞工能夠獲得公平的補償,並且有機會轉換到其他社會角色[12]。

但是,這種持平觀點,卻會同時讓科技愛好者與科技恐懼者不滿。同樣地,強調治理的立場,也會同時得罪反對「干預」勞動市場的一方,以及厭惡有個「專業管理階級」的另一方。各種職業儼然形成經濟種姓制度,讓某些工作者相對於其他工作者享有不公的特權,這樣說來厭惡專業管理階級者所抱持的懷疑,的確有其道理。然而,想要一方面促成各種職業追求更崇高的目標,同時鬆動職業的階層化,還是有可能的。

完整epub:

You need to be logged in to view the rest of the content. 请 . Not a Member? 加入会员

Please Login to Comment.