人工智能的倫理思考8篇

時間:2023-06-20 17:05:36

緒論:在尋找寫作靈感嗎?愛發表網為您精選了8篇人工智能的倫理思考,愿這些內容能夠啟迪您的思維,激發您的創作熱情,歡迎您的閱讀與分享!

人工智能的倫理思考

篇1

關鍵詞:人工智能影視教育課堂在場價值觀

人工智能技術作為社會媒介化發展的特殊產物,不僅能夠建構起智能媒介化的信息社會,更能深入到傳媒研究領域,引導影視傳媒研究朝著“互聯網+教育”的方向發展。當前影視傳媒教育正面臨重要的轉型階段,如何通過媒介信息技術調整現有的理論學習模式和教學培養目標,已經成為影視教育進行改革創新的突破口。基于人工智能為教育信息化帶來的機遇和挑戰,影視教育正致力于從“刀切教育”邁向“精準教育”,從“課堂缺席”轉為“課堂在場”,從人才培養模式到教育信息平臺搭建,都在不斷強化智能教育培養,力求為影視傳媒教育的智能化改革和實踐提供決策依據。

一、影視教育智能化發展的應用價值

智能化影視傳媒研究是教育信息化極為重要的應用場景,人工智能技術不僅拓寬了影視傳媒教育的研究方向,同時也在技術手段、渠道搭建、傳媒倫理等層面發揮著重要作用。

1.消除數據鴻溝,發揮智能傳媒教育技術賦能和知識平權的雙重功能。影視傳媒研究是以實踐為基礎的理論性教學,以培養創新型和復合型人才為教育目標。教育學者是影視文化傳播的驅動者,因個體間存在傳播技能、信息儲備和交往行為方面的差異,造成影視傳媒教育具有嚴重的知識鴻溝。在影視研究學者步入算法教育的重要階段,智能教育平臺可通過讀取人的反饋改變原有的教學模式,調整每一位受教育者的天賦類型。與此同時,教育學者能夠充分利用算法技術和人工智能手段,獲取定制化的影視資源和學習條件,以技術邏輯引導學習流程,用分析框架提高教學模式的理論性和可操作性,通過強化教與學的變革場景,激活文化創作的想象力和邏輯性思維,使科技創新在理性與感性、理論與實踐的引導作用下,從一般的理論教學形成智能媒介化的信息教學模式,從單向傳授轉變為雙向互動的學習教育模式。

2.拓寬學習渠道,推動教育形態從理論課堂到智能媒體教育課堂的變革。人工智能技術與影視教育教學的深度融合,正引發起一場新的教學革命。從教育手段和學習途徑上來看,原有的課堂教學已無法滿足理論和實踐的雙重需求,大數據催生出的智能化影視教育,在虛擬世界和現實世界間搭建起新的算法課堂,利用人工神經網絡簡化理論教學的概念,又通過具有超強運算能力和通訊能力的技術手段協助實踐操作。例如,人工智能照相機作為輔助型的教學工具,被運用于智慧課堂的攝影實踐教學中,借助云端技術和物聯網連接遠程數據中心,可以幫助不懂攝影技術的學習新手盡快了解電影拍攝的理論框架和基本技能,推動教學場景從應用性教學到智慧型課堂的氛圍建構。人工智能與影視教學的跨界融合,成為智能傳媒教育進行顛覆式創新的重要表現形式,教育形態正逐漸從智慧課堂過渡到智慧校園,從傳統的理論范式過渡到智慧媒體的應用型范式,幫助構建起新的學科話語體系。

3.重視傳媒倫理,推動智能化影視傳媒教育價值觀和技術性的生成。人工智能是以追求效益為初心的理性工具,在技能研發階段尚未對倫理規范提出強制要求,技術倫理向來是人工智能難以逾越的一道鴻溝;影視傳媒教育則是以培養學生的倫理觀和價值觀為出發點,重視以道德審美為核心的理性意識。智能化傳媒教育將信息技術和影視教學進行結合,使得理性工具得以同理性意識深度融合,人文關懷建立在技術作用之上,這既是培養受教育者核心價值觀的時代需要,亦是強化人工智能技術倫理的有效途徑。人工智能時代,強調智能化影視傳媒教育技術性和價值觀的生成,與其說是建立在影視教育應用場景上的技術倫理規范,不如說是借信息技術完成對傳媒倫理和受教育者價值觀的理性建構,讓人工智能發展緊密聯系意識形態和倫理道德問題,加深技術手段和教育學習的彼此作用,從而獲得傳媒教學在倫理層面的共識。隨著傳媒影響力的逐步擴大,以內容為載體的影視教學活動意味著要擔負起更重要的教學責任,學科研究核心價值觀的建設必須以注重傳媒倫理和技術倫理為教學基礎,重新建構現有的倫理道德觀念,為人工智能技術注入價值觀的活的靈魂。

二、影視教育智能化發展的風險問題

人工智能技術的迅速發展,賦予影視傳媒教育極大的應用價值,與此同時也面臨著潛在的風險問題。

1.灌輸式教育仍占據主流,智能化影視教學陷入價值認知困境。在人工智能技術出現以前,理論+實踐的教學策略已經成為一種固定的形態存在于傳統影視教學工作中,受教育者根據統一的培養目標規劃自己的學習方式,包括影視創作及影視理論等相關課程都按照相同的培養模式進行。由于教育主體對人工智能的認知存在兩極分化的現象,過往只能夠通灌輸式對學生進行強制教育,智能化影視教學則是處于小范圍內的實踐和創新。對影視教育而言,理論與實踐是學習的內容,繼承與創新才是研究的實質。明確人工智能教育的價值認知,從灌輸教育逐步邁向定制化教育,為高校的人才培養提供重要的智力支持,應當是影視教育智能化轉型發展的著力點。

2.智能教育應用場景缺乏思考,其深度和廣度有待進一步挖掘。當前,智慧課堂、智慧校園的出現奠定了智能傳媒教育的基本雛形,依靠大數據、物聯網等信息技術支撐的智能傳媒教育,在平臺搭建層面已出現顯著性成果,但對應用場景的深度和廣度挖掘還存在明顯問題。影視教育智能化應當以追求個性化和定制化教育為目標,崇尚的是終身學習的教學理念,不應當將人工智能技術僅局限于傳統的教學課堂,除了要從“線下”走向“線上”,還需要考慮到以人機交互為主要形態的教學應用場景,挖掘人工智能教育更多的應用情境和展現方式,從而對影視課堂的理論與實踐教學價值提供合理的在場性證明。

3.專業壁壘依然存在,智能化教學成果馬太效應極為明顯。智能教育世界要求培養更加多元化的應用型人才,但人工智能的馬太效應逐漸滲透到影視傳媒教育工作中,也會導致教學成果受到出現嚴重的失衡現象,難以滿足高校對人才培養的多元化需求。作為藝術研究的影視教學活動,其科學精神和創新實踐同樣重要。尤其在媒介融合背景下,要想推進受教育者從“影視學者”逐漸過渡到“影視作者”,人工智能不僅需要滿足師生的定制化教學任務,還應當破除專業和行業的壁壘,對其相關聯的學科和傳媒領域進行合作,才能夠改變當前智能化影視教育在教學模式上面臨的不足,不斷為社會輸送更多的應用型人才。

三、影視教育智能化發展的轉型實踐

面對智能傳媒教育的風險與挑戰,影視專業更應當立足于自身的教育發展特色,從人才培養模式、應用場景建設、教育資源整合等方面,推進影視教育智能化發展的轉型實踐。

1.從“灌輸教育”走向“精準教育”,創建新的人才培養模式。智能傳媒教育范式的自主性建構,應當立足于對傳統教學效率和人才培養模式的顛覆?;诋斍坝耙晜髅街悄芑l展在人才培養模式層面的不足,其轉型實踐需要從受教育者的個性化需求出發,在師生、家長和社會的通力合作下,創建新的人才培養模式,利用碎片化學習完成系統化的學習過程,逐漸從“灌輸式教育”走向“精準化教育”。例如,人工智能時代對影視學生的培養更趨向于“以個人為導向的系統化學習”,通過前期對受教育者的大數據整理,對每一位同學的邏輯性、想象力、創造性和溝通能力等進行分析,從影視理論和影視創作兩大方向出發對受教育者形成定制化的學生畫像,并提供針對性的智慧作業,幫助教師采集學生的學習情況,從而實現規范化的信息管理。可以預見的是,智能傳媒時代,“互聯網+教育”學習模式的生成,在推動知識平權化等方面發揮重要價值,成為影視教育智能化追求的重要轉型路徑。

2.從“課堂缺席”走向“課堂在場”,打造新的傳媒教育平臺。人工智能不僅要改變傳統的人才培養模式,同樣也應當提供更加多元化的學習應用場景。過去的影視研究多局限于單一的課堂場景,采用課上理論和課下實踐的方式進行授課,完成影視教學的閉環。人工智能時代,影視傳媒教育應當調整原有的受教育模式,通過搭建合理的人工智能應用平臺,可以巧妙地將課堂場景與智能技術結合起來,為受教育者提供更加多樣性的教學應用場景,從而實現成長課堂的“在場共生”。例如,人工智能可以帶動影視制作的推陳出新,通過搭建智慧超媒體系統,將電影屏幕從影院搬到校園,自動生成無窮界面。與此同時,影視傳媒的智能化還可以幫助教師自動生成電影梗概,將理論性教學轉變為可視化形象,使電影理論同定制化的影像人物之間建立匹配關聯,讓教育場景從線下逐步延伸到線上,為影視研究提供重要的云服務。

3.從“媒教分離”走向“共建合作”,實現產研學的自主對接。影視教育智能化發展的最終目的是為了尋求理論與實踐的融和,幫助構建起傳媒教育和傳媒業界的良性生態關系。傳媒教育智能化也可以全面提高受教育者的學習效率和工作效率,通過優化教育資源,帶動影視內容的高質量生產、影視人才的高質量創作。因此,從“媒教分離”走向“共建合作”,引導產研學的自主對接也成為了影視教育智能化轉型實踐的有效探索。未來的影視傳媒發展,能夠抓取海量資源建構獨立的影像景觀模型,為機器人參加藝考創造可能性,并且也可以緊抓電影內容的智能化生產,從前期的電影腳本自動化寫作到后期的虛擬演員個性化定制,系統均可以對劇本創作、電影拍攝等課程進行精準化評估,從中篩選出符合影視公司要求的作品,進入后續的市場化操作。

篇2

因為他相信,“未來是屬于人工智能的?!?/p>

人工智能,Artificial Intelligence,英文縮寫AI。在人工智能領域的經典教材,出版于2013年的《人工智能:一種現代的方法(第3版)》中,著名人工智能專家羅素和諾威格從4個方面對人工智能進行了定義,即:能夠像人一樣思考、像人一樣行動、合理地思考、合理地行動的機器。

人機大戰只是人工智能開始改變人們生活的一個小例子,事實上,以往只存在于科幻電影的未來世界,正在加速迎面而來,和現實熱烈擁抱,甚至讓人猝不及防。

“蘋果Siri、新聞閱讀軟件、在線翻譯等,都是人工智能技術的代表。”為人工智能搖旗吶喊的不止創新工場創始人李開復一人,微軟CEO薩提亞?納德拉、谷歌CEO桑達爾?皮查伊、百度創始人李彥宏、物理學家斯蒂芬?威廉?霍金……但凡人們叫得上名號的科技公司巨頭、計算機科學家無不在向人們訴說著同樣一個事實,“人工智能引領的第四次技術革命已經進入爆發的前夜”。

聚焦今天這個時間點,人工智能最耀眼的還是商業化的起步。隨著國外科技大佬對于人工智能各種應用場景的開發,國內互聯網三巨頭BAT也在加速布局,一場真正的AI商業化戰爭,已經蓄勢待發。

每一次技術革命都將帶來全球競爭格局的重塑,這一次,中國幸運地與世界站在了同一條起跑線上。伴隨著“人工智能”首次被寫入全國政府工作報告,以及《“互聯網+”人工智能三年行動實施方案》的出臺,占據數據和場景優勢的中國正在籌劃部署人工智能的頂層設計。

篇3

人工智能和機器學習的進步速度如此迅猛,我們的社會將迎來一些重要的倫理和經濟問題,應對這些問題恐怕會費心費力。

總體而言,人工智能(AI)和物聯網將同時改變互聯網和全球經濟。在未來5年內,我們可以預期人工智能和機器學習將會被整合到各種各樣的技術中,這些技術包括數據交換和分析。這將帶來巨大的機遇,如全新的服務和科學突破,人類智力的提升,以及它與數字世界的融合。

在人工智能領域存在相當大的不確定性,如決策轉由機器執行,缺乏透明度,技術變革將超過治理和政策規范的發展。自動化可能會深刻地改變行業,影響就業和公共服務的交付。政府和社會需要為其影響做好準備:

經濟和社會必須為人工智能以及物聯網帶來的顛覆做好準備。

在人工智能的設計和部署中,必須優先考慮倫理問題。

人工智能和自動化將帶來全新的社會經濟機會,但對個人和社會的影響和取舍還不清楚。

人工智能正改變著我們的決策方式,我們必須確保人類仍然處于“駕駛座”的主導位置。

在社會內部和社會之間,人工智能的益處分配將不均衡,進而加劇當前和未來的數字鴻溝。這種現象發生的風險極高。

人工智能世界的治理與倫理問題

人工智能引發了對倫理問題的廣泛擔憂。技術人員表示,這項技術需遵從人類的價值觀,在人工智能系統的設計、開發和部署的每一個階段,都必須優先考慮倫理層面的問題。

目前,人工智能和相關技術正在開發和部署,短期內將需要大量的投資和努力,以避免對社會和人類造成意想不到的影響。在未來,我們需要把焦點放在研究上以及有效的管理架構上,以確保人工智能技術帶來的是契機,而不是損害。目前,開發算法的工作仍然由人類完成。對我們所做的事,我們仍擁有些許控制。

然而,如果我們把這類工作拱手相讓給中介機構,而中介機構又讓算法來設計算法。那么在五年內,開發算法的工作可能就不是人類在做了,而是人工智能在掌控。是否將出現這樣的前景:我們打交道的中介機構將被人工智能替代。

此外,人工智能引發的重要考慮事項涵蓋了隱私、透明度、安全性、工作性質,以及整體經濟。例如,基于面部識別技術可以提升用戶在社交媒體上的體驗。但同樣的技術也可以用來提升監視效果,犧牲個人隱私。亦或是,如果人工智能成為社交媒體網絡和在線平臺的永久功能,在這些平臺上,算法被用來管理在線體驗、有關自由選擇和偏見的問題將會加劇。人們將對數據收集和決策的透明度和責任性感到擔憂。這種擔憂將會加速倫理原則的制定。而這些原則的作用是什么?用以指導人工智能的設計和部署。

一個社會如果完全以數據收集為基礎,那么從商業角度來看,在沒有適當的民主監督和平衡的情況下,將助長社會過度依賴監督。機器提供了太多自動選擇,人類無需過多思考,從而失去了某些自我決策的機會。

數據分析技術產生的自動化將對人類行為和決策產生更大的影響。

政府將如何應對人工智能帶來的更大的經濟和社會影響?政府是否具備這樣做的能力和資源?在政府內部,由于政策的制定和調整越來越多地受到數據的驅動,人工智能可能會帶來一種根本性的決策調整。此外,人工智能可能成為未來政策選擇的一種決策工具,而且使用起來可能會草率而不透明。

物聯網和人工智能的發展將為政府決策提供科學依據,并幫助它們快速應對民眾的需求。

許多人預見,未來幾年將展開一場激烈的競爭,以爭奪商業人工智能領域的霸主地位。盡管這可能會推動創新,并有可能顛覆當前的市場結構,但也存在競爭方面的擔憂。預測者認為,在可預見的未來,如今的領先科技公司將會控制人工智能市場。

人工智能對互聯網經濟的影響

一些人認為,預測人工智能是一種營銷炒作,但很多業內人士和政府都在為人工智能的普及做準備。CB Insights估計,2016年超過50億美元的風投資金流向了人工智能創業公司,比前一年增長了62%。人工智能為創造新工作、新產業和新溝通方式提供了巨大機遇。

隨著人工智能和自動化在各個行業推動重大結構變革,工作的本質將發生改變。隨著人工智能獲取用戶數據,改變產品和服務的交付方式,許多現有的工作崗位可能會被取代。如何適應變化的步伐將是未來一項重大的全球性挑戰。

與人工智能和物聯網相關的項目引領了我們很長一段時間,提升了我們現有的技術,讓普通人生活更加方便。

人工智能系統和技術可以改變工作的性質,讓員工能力得到提升,從而減少人類之間和國家之間的不平等。人工智能讓我們承擔和解決更大的挑戰。正如一份調查報告所顯示,“人們的大腦和互聯網之間的距離會變得越來越近,而兩者之間的交叉會變得越來越復雜。”

機器與機器之間的通信增加了成本壓力,人們正在被取代。這只會隨著時間的推移而不斷增加,這對經濟有好處,但會對就業提出挑戰。

人工智能為科學研究、交通運輸和服務提供帶來了巨大潛在收益。如果可訪問性和開源開發勝出,人工智能有可能給發達國家和發展中國家帶來紅利。例如,依賴農業生產的國家可以利用人工智能技術分析作物產量,優化糧食產量。在醫療保健領域使用人工智能可能會改變低收入地區的疾病檢測方法。

人工智能是一種創造性的毀滅,它將淘汰許多工作崗位,但也將創造新的角色和工作崗位。

但是,社會本身是否已經準備好接受這種變化,我們是否為新型經濟做好了充分的準備?對于發展中經濟體而言,新技術總是能創造出更多的可能性,盡管部署人工智能(以及物聯網)的基礎設施非常重要。人工智能的好處也可能不均衡:對于依賴低技能勞動力的經濟體,自動化可能會挑戰它們在全球勞動力市場中的競爭優勢,并加劇當地的失業形勢,影響經濟發展。

用于管理制造業或服務業的智能和服務,可能仍集中在發達國家。人工智能可能會在很大程度上加劇數字鴻溝,這將會帶來政治上的影響。

確?;ヂ摼W技術創造市場就業機會,且不會對就業市場造成損害,這是未來5年必須解決的一個挑戰,也是國際上一個緊迫而嚴重的問題。

人工智能對互聯網安全和網絡智能的影響

算法開始做出決策,它們比人類決策更快,并且可以代表我們的意志。此外,系統越來越不透明。我們不知道他們在哪里,他們在做什么決定。

雖然安全與信任對人工智能的未來至關重要,但這項技術也可以幫助解決安全挑戰。隨著網絡和信息流變得越來越復雜,人工智能可以幫助網絡管理人員理解交通模式,創建識別安全威脅的方法。在基本的企業層面上,人工智能可以執行由IT幫助臺執行的任務,比如解決員工的電腦問題。

這將為企業IT專業人員提供更多的時間來實現安全最佳實踐,并更好地保護公司系統和網絡。除了人工智能決策,人工智能還可以在網絡上對日益增長的安全威脅進行分類。

篇4

什么是算法?

算法是指由計算機執行的一系列獨立的指令和動作。從初始狀態和初始輸入開始,這些指令描述了完整的計算步驟――通過一系列有限的、確切的指令,產生并輸出答案和數據,最終止于結束狀態。

人工智能的算法是一套利用機器智能解決問題的復雜手段。過去,我們給計算機下達規則式的指令來解決問題;現在,我們只要告訴計算機想解決的問題,它就可以自行選擇算法來解決問題――這便是人工智能帶來的根本性變革。

人工智能最重要的是學習能力,即根據機器以往的經驗來不斷優化算法。第一次人工智能的浪潮始于上世紀70年代,當時的人工智能算法采用的是符號邏輯推理規則,以實現知識表征。由于缺乏自我學習能力,那時的人工智能無法解決新領域中出現的問題。第二代人工智能雖然在學習和感知能力上表現更佳,但由于當時的機器學習模型不具備大量吸收訓練數據的能力,與人類的水平仍有很大差距。

算法的發展

大約在10年前,深層與結構化機器學習,或稱為深度學習的新范式,讓人工智能算法的智能程度越來越高。傳統的機器學習方法讓電腦學習的“知識”,要由人來設計并輸入,因為需要掌握大量的專業知識,導致特征工程成為機器學習的瓶頸。深度學習打破了這一瓶頸,通過多層結構算法,機器對數據集的“特征”進行篩選和提取,通過反復訓練,最終獲得了提取抽象概念的能力。

隨著神經網絡研究的深入,計算機視覺和聽覺等讓人工智能技術再次迎來發展的拐點,計算機的算法也越來越精進。未來,計算機對自然語言的應用還將大幅提高,電腦可以聽懂、讀懂人類平常所用的語言,而不僅僅是機器指令。這樣,存在于互聯網和局域網中的海量信息,都可以成為深度學習的素材。

篇5

關鍵詞:科幻;倫理;愛

中圖分類號:J905 文獻標識碼:A 文章編號:1005-5312(2013)20-0140-01

一、科幻世界

影片為我們營造了一個未來的、虛構的科幻世界。無論是影片伊始科學家們在研究室里展示新型人工智能機器人,討論“能夠疼愛父母”的機器人小孩,還是對未來世界和未來“人類”的構想與描繪,都是對科學、對科技的大膽假設。影片中對高科技的彰顯,可謂讓人應接不暇。

在影片虛構的未來世界里,人工智能機器人為人類提供了各種各樣的服務,他們擁有與人類一樣的外形,有思想、有意識甚至有愛有疼痛。他們與人類一樣來自各行各業,為社會為人類的發展提供服務。這一切都是對人工智能這門科學發展到現階段的美好展望。

影片中對冰封2000年后的“未來”的描繪一樣讓我心曠神怡。未來人類的形象、智慧,未來世界的境況似乎都凌駕于現實之上又以優越于現實的形式而存在,這一切都顯示了科幻的美好。

二、倫理困境

觀影過程中我常有這樣一種想法:《人工智能》與其說是一部科幻片,不如說是一部極具科幻色彩的?!度斯ぶ悄堋穼惱淼乃伎加妹商娴氖址ㄍㄟ^幾個鏡頭的表達層層推進。第一個鏡頭是大衛被馬丁激怒吞食菠菜。第二個鏡頭是大衛與馬丁落水后被遺棄游泳池的畫面。第三個鏡頭則是大衛被莫妮卡永遠地拋棄時的情景。

莫妮卡和亨利選擇了機器孩子大衛替代自己沉睡不醒的孩子馬丁,起初莫妮卡十分的抵觸、反對,大衛的人工智能系統也未被激活,他的行動例如大笑聲都十分僵硬的,直至莫妮卡決定接受他并且說出了激活碼的瞬間,大衛喊出了“媽媽”這個讓人心碎的單詞。大衛是機器,馬丁是人,他鄙視大衛,在馬丁的眼中,大衛僅僅是一個新開發的。馬丁時刻壓迫著大衛作為一個“人”所應有的那份權利。斯皮爾伯格用了大量的細節鏡頭來表現這種人與機器人之間的不平等性。

影片中對《機器屠宰場》的描繪是矛盾沖突的一個頂點。與人類有著類似外形的機器人以種種酷刑和死亡為代價為人類進行表演。機器人的形象與真人相似度極高,這樣的畫面讓我想起納粹對猶太人的屠殺同類的情景。在這里,影片似乎在昭示:我們生活的現實世界比電影殘酷得多。且不論其他生物,每年有多少孩子在饑餓中喪生,在病痛中,但只因為他是黑人、是孤兒、是殘疾,我們就悄悄地背過頭,把自己的疼痛感應器關掉了。

三、愛的輪回

大衛的故事本身就是一種愛的輪回。他極盡全力表現著自己的愛,祈求一種守恒和輪回能招致他所期盼的愛。大衛的追求似乎是一個悖論:他希望自己成為一個最普通的真人小孩,他覺得自己是獨一無二的,這二者只有在愛的領域內才是互不矛盾的表述。任何一個普通的甚至是丑陋的、笨拙的孩子,都擁有一種自信,覺得自己是父母獨一無二的,不可替代的寶貝。而任何一個平凡的人,都有可能在愛人的眼里成為世界的中心。而這種獨特性受到侵犯的時,愛就被動搖。這就是為什么說大衛看到與自己同名同姓、同樣相貌身高的機器人時失控的、怒不可抑砸毀對方,并幾近崩潰地反復喊道:“你不能占有她,我是獨一無二的。”這并不是單純的嫉妒而是一個人守護自身獨特存在性的需求,這也是大衛在無法摧毀更多機器人時選擇自我毀滅的緣由。

篇6

但即便象棋下不過、圍棋下不過、力氣也比不過,機器依然并不能取代人類。

人工智能會說“愛你”,但它不會真的愛你,它像一面鏡子,照耀的是人類的善與惡,美與丑,愛與恨。楊瀾說,一想到未來手機、空調都在搜集她的數據,這種裸奔的感覺讓她不寒而栗。

楊瀾又說,科幻片中的人機大戰是天方夜譚。

不出意外,柯潔輸了。

關于那個在第一局比賽結尾露出的笑容,柯潔的解釋是:當然是苦笑了,因為我很早就知道我要輸了。而搜狗總裁王小川點評比賽時則更加直接:我們的關注點不是機器能否贏,而是機器用什么姿勢贏。所有人在這一回輸贏問題上達成了共識。

資本與市場宣稱,這已經是人工智能的時代了。

4月末,我們帶著一個普通人對人工智能的疑問,與過去一年內探訪了30多個人工智能研究機構及實驗室的楊瀾深談。當時,她就預判道:AlphaGo還會贏。

果然,可以算得上波瀾不驚,天才少年柯潔的完敗遠并不如去年李世石的失敗那樣讓世人震驚。

楊瀾說:她還記得,1997年,當IBM的電腦深藍戰勝了國際象棋冠軍卡斯帕洛夫的時候,她曾經在一個節目中斷言,這樣的事情在圍棋領域是絕對不可能發生的。

因為蘊含著古老東方智慧的圍棋變化萬千,它的布局走法可能性多達10的172次方,比宇宙中的原子數量還多。不止楊瀾,圍棋專家和人工智能領域的專家,當時也紛紛斷言:機器要在圍棋比賽中戰勝人類,至少還要一百年。

但是只用了不到20年的時間,機器就做到了。數次人機大戰,機器都無可辯駁地完勝了人類,甚至表現出了創造力和直覺這些人類最引以為傲的特質。當AlphaGo去年走出讓人汗毛倒豎的那一步棋之后,當時比賽的解說員稱,再管它叫電腦程序已經不合適了,你完全能感覺到人工智能的“智能”的存在。

什么是人工智能?它們和人類是什么關系?世界上最頂尖的人工智能實驗室里都在發生什么?為什么很多名人都讓人們警惕人工智能?人機共生,人類準備好了嗎?

對人工智能做了深度探訪的楊瀾一一給出了回答。 楊瀾在成為工業文明遺跡的倫敦舊碼頭上思緒萬千

Q=《北京青年》周刊

A=楊瀾

相較人工智能,人的可貴之處恰恰在于我們不完美

Q:你在去年春節前就啟動了這個專題片的策劃,那時AlphaGo還沒贏李世石呢,為什么這么有先見之明?

A:是,我團隊都在說“楊瀾姐你太超前了”。我的確對人工智能特感興趣,人工智能不只是一個新的技術,它會影響到人類的生產、生活,以及人和人之間的相處模式和這個社會的運行模式。我只是隱隱約約地覺得它的影響要深遠得多,而且這一次的規模會來得很大。同時在我身邊像李開復、張亞勤這些老友,在說到自己的一些研究和投資的方向的時候,也在不停地說到人工智能。讓我覺得這件事情非常了得,卻很少有人能說明白。

那我就覺得其實觀眾也會有同樣的興趣和同樣的迷惑,以一個媒體人的嗅覺,我覺得應該去探索這件事兒。

Q:你們花了非常大的工夫,做了到目前為止最全面也最有深度探索人工智能的紀錄片,我想知道這個過程中你有什么獨特的發現和結論?

A:有很多有意思的發現。

人的智能有很多局限性,比如我們經常健忘,然后我們三分之一的生命是在睡眠中度過的,還會做各種各樣奇怪的夢,從純產出的角度,我們肯定不像人工智能一樣可以24小時在那計算和下棋。還有,我們的頭腦不是用來處理大數據的,我們不可能同時做50萬人的人臉識別,我能認清楚我身邊這兩百個人已經很不錯了。我們人類有這么多的局限,那我們的可貴之處在哪里呢?其實這個可貴之處恰恰在于我們不完美。

正如采訪中麻省理工學院的一個教授對我說的,“會忘記是人的高級智慧的體現”,如果我們什么都記得住,我們一進了這個屋子,“啪啪”眼睛一拍照,把@個屋子哪有灰塵哪有小蟲子等所有細節都記住,我們就不可能把自己有限的能力集中到我們需要去創造、需要去抓住核心的東西上。

所以人類不用妄自菲薄,不要以為一個機器在圍棋上不可戰勝了,它就在各個方面都超越了人的智慧,人的智慧是有它的獨一無二之處的。

Q:走訪世界各地做了這么多功課,有沒有哪些場景讓你受到震撼?

A:我覺得這種震撼既有你看到的東西,也有你可以想象的東西。

當我到了倫敦的舊碼頭,作為工業文明的遺跡,那邊有很多遺留下來的舊的大庫房,庫房之間有很多鐵的天橋。這個當年是多么宏偉,那種蒸汽騰騰,你都可以想象到倫敦的霧天的那樣的場景,但是今天,靜謐極了,已經成為一個純粹的歷史遺跡了。

于是你會想到工業革命當時在英國,把幾百萬的農民變成了工人,讓他們進入了城市。其實每次大的技術革命和工業革命發生的時候,就會產生劇烈的社會矛盾,我覺得很震撼的就是:那接下來的這一次技術革命,又會帶來怎樣的社會沖擊?

Q:李開復先生說,“人工智能將會給傳統行業帶來血腥的顛覆”,“十年之內,50%的工作會被AI取代”, 你怎么看?

A:我更愿意說成是未來十年,50%的工作都會受到沖擊和影響。受沖擊和被取代不是一個概念,至于是不是“50%的人都要失業”,我認為需要商榷。

但是有些行業肯定會受到比較大的影響。比如卡車司機這個職業,他們有可能在十年之內,真的失去他們的工作,那他們該去哪里?甚至如果將來都是無人駕駛的話,我們都不需要擁有私家車,就像今天的共享單車一樣,將來汽車也是共享的,那會對現在的汽車制造業產生多大的影響?

還有,如果說蒸汽機替代了人的肌肉的話,那么這一次的人工智能會替代掉很多簡單的白領工作,人的腦力工作也被取代了。比如說律師的助理,可能就是一個人工智能,它可以幫助你查到所有需要的案例和卷宗。比如醫生的助理、讀片師,人工智能已經可以掌握到一千萬個關于肺癌的影像資料,就不需要一個老專家在那兒看半天,還有一定的失誤率。還有記者,如果你只是做一個五個W的報道,那現在的人工智能已經在幫你做了。所以這一次的影響更深遠,涉及到的人會更多。

Q:無人駕駛使卡車司機失去工作的場景,你覺得在十年之內真的會出現嗎?

A:我認為在十年之內,無人駕駛是最容易實現的改變。你可以想象,在一些發達國家或是像中國一樣的高速公路非常發達的國家,負責運輸的司機可能真的不需要了。也許某些場合還需要有一個人把手放在方向盤上,隨時準備著人機切換,但是從理論上講,起碼不需要現在這么多司機了。

我們不排除外星人進攻地球的可能性,但是不是現在就要馬上建立一套防御系統呢?

Q:在片子中我們看到,科學界對人工智能的認知也不盡相同,甚至還有核心觀點分歧,是這樣嗎?

A:對。我會發現,人工智能這個領域的科學家,往往都是抱有比較樂觀的態度。他們認為人工智能不過是自動化的一個新階段而已,最終還是可以被人類所控制的。

但是,周邊學科的科學家和社會公眾,似乎對于人工智能的憂慮更多一些。也可能是因為我們看了不少科幻小說和科幻電影,所以就總會假想,如果機器有了人類不可控的能力怎么辦?

斯坦福大學有一位人工智能的專家卡普蘭教授,他說,其實人對于未知的,但是又很有力量的東西,總是心懷恐懼的。卡普蘭教授比喻,這就像一個人在爬樹,然后你就會擔心他要是爬到月亮上了該怎么辦呢?

Q:你自己更傾向于那種觀點?

A:我更傾向于:我們眼前有足夠多的事情需要去做。與其去擔心一個所謂的智能機器將來會統治我們,不如好好來考慮一下隨著人工智能的發展,我們的交通規則是否需要改變,失業的人如何能夠維持一家庭的生計,還有由于大數據的發展所帶來的我們的隱私問題到底該怎么保護?我覺得眼前的這些事情,已經足夠我們煩惱了。

就像我采訪哥倫比亞大學諾貝爾獎的獲得者、著名的腦科學專家埃里克,他是研究人的學習能力、人的神經系統的。他說“I worry more about Trump”,他說我更擔心的是川普的問題,而不是未來的一個機器……這就像說,我們不能夠排除外星人來到地球的可能性,但我們現在是不是要馬上建立一個專門為了防御外星人入侵的防御系統呢?

Q:所以你是偏向于更樂觀,也更務實的態度?

A:我不代表樂觀,我覺得技術永遠是一把雙刃劍。

人類其實可以仰望星空,讓自己的想象力無邊地馳騁,但是人工智能將要帶來的沖擊已經在敲門了,我們還是應該首先來應對目前就已經要發生的改變。而且技術的革命和科技的發展,在人類的歷史上,從來沒有因為人主觀的樂觀或者悲觀,就停止腳步。從來沒有!

Q:科幻片中說的那種人機大戰是天方夜譚嗎?

A:我認為是天方夜譚!在科幻電影里,是機器人一伙,人類一伙,兩方產生了不可避免的沖突。但在現實生活中更可能出現的情況是,一群人帶著自己的機器,和另外一群人帶著他們的機器,所產生的沖突。所以最終要協調的,還是人的利益沖突,而不是說機器突然有了整體的自我意識,決定要把人給顛覆了。這個我認為只是科幻的場景。

Q:那么你覺得機器人可以具有人的價值觀和思維方式嗎?

A:我認為它們可以因為被輸入的游戲規則而展現出某種人類表達的特質。比如說它被輸入了“在某種情況下就要說我愛你”,但這并不意味著它感受到了愛;或者說它可以下一千萬盤棋,但它不會像一個人那樣,真正地享受下棋的過程。

實際上,我們現在只能證明,人工智能在一些需要處理大數據的垂直的領域具有超快的學習能力,但并沒有證據表明它們會形成自我意識。

Q:所以你如何看待柯潔5月份將與AlphaGo進行的終極人機大戰?(本刊記者采訪楊瀾時比賽還未進行)

A:雖然從我的判斷上來說,它還是會戰勝柯潔的,但是從另外一個角度來說,明明知道面對AlphaGo勝率并不高,柯潔還是愿意接受這個挑戰,我覺得這就是體現了人類的智慧。而且,即便它能夠戰勝世界上所有的圍棋高手,So what?

中國現在應該開始為迎接人工智能的時代做制度安排

Q:你認為,人工智能最有可能從什么領域進入到常規的日常生活?

A:我想到的是三個方面,一是無人車,就是無人駕駛,它可能會改變我們的出行方式。

第二個,在中國的場景下,就是醫療。因為中國的醫療資源實在分布得太不均衡,醫療能力實際上是集中在一些大城市的頂級專家的手里。但是因為中國人口基數大,醫療數據庫也非常龐大,所以如果能夠借用人工智能,就可以給那些鄉鎮級、社區級的醫生提供非常好的診斷服務。

第三個方面,如果你要問李開復先生,他可能會說金融了,但是實際上中國在高頻交易這些方面還是有限制的。比如股票,如果它用高于人零點幾秒的能力下單的話,它就不得了了,但是它也會擾亂整個市場的秩序。

但我覺得,在法律援助這個方面其實是可以考量的,其實現在律師的很大一部分工作是在搜索和查詢相關案例和相關法律條例,以及其他類似案件的判決情況。如果有了人工智能的幫助,可能以后基礎的法律咨詢就不需要請那么昂貴的律師了。

Q:這次的采訪涉及全球,你感覺人工智能領域,中美之間的差距大不大?

A:其實中美兩國在人工智能領域都是屬于第一方陣的,在技術發展的水平上,我覺得各有優勢。

的確在原創核心技術的突破方面,還是美國的實驗室能力相對要強。但中國是一個大數據的王國,而所謂的機器學習,實際上是大數據學習,這是我們的天然優勢。美國在這方面的資源遠不如中國。

Q:中國之前的發展受益于所謂的人口紅利,在人工智能時代到來的時候,這會不會成為劣勢呢?

A:我認為不能簡單地說是優勢還是劣勢。因為中國巨大的人口規模,會使中在大數據采集和人工智能的應用層面,具有得天獨厚的優勢。

但另一方面,過去幾十年我們依賴低的勞動力成本和出口所帶來的制造業的繁榮,也必然要進入一個新的階段。如果你不能提升品牌的價值和品質,那么勞動力這個優勢,其實正在迅速失去。

那如果很多藍領要失業了,那這些藍領應該怎樣安排?會給社會帶來什么樣的不安定因素?這都是應該去面對的。

Q:你會有這樣的擔心嗎?

A:我覺得現在就應該做制度安排,這個事情其實是說來就會來的。你現在去東莞看看,很多流水線都是無人工廠了,工人被機器人取代就是眼下正在發生的事情。所以我覺得像特朗普還在跟美國失業的藍領工人說“我們要把工作從中國人的手里奪回來的時候”,我心里一陣冷笑,其實拿回美國也只是給機器人做而已,因為這是一場巨大的技術革命,它已經不是從什么人手里奪回來一份工作而已。

所以我覺得像中國這樣的制造業大國應該開始做一些制度的安排,來更好地應對隨之而來的比如失業問題,再培訓問題,和稅收的問題。

人工智能必然會帶來倫理問題,而且已經就在眼前了

Q:斯坦福大學的李飛飛教授多次提到人工智能帶來的倫理問題,你是什么觀點?

A:人工智能一定會產生倫理問題,而且涉及很多層面。比如微軟做了一款人工智能情感機器人“小冰”,當時放在網絡上進行測試的時候,就有很多人故意教它說臟話,教它說一些種族主義和充滿暴力的話,那么這個人工智能就像我們說鸚鵡“嘴臟了”一樣學會了。其實人工智能就像一面鏡子,它照耀的是人類的善與惡,美與丑。

還有像自動駕駛,如果出現一個兩難的局面,它究竟應該犧牲車上的一個人,還是犧牲路邊的很多人,甚至包括孩子?你要把這個選擇權交給一個機器嗎?如果你交給了機器的話,那么誰又會出錢買一輛將要犧牲自己的車呢?這是一個極致的問題,卻不能說它不存在。

還有隱私問題,它其實也是一個倫理和道德范疇的事情。比如商業機構在多大程度上可以使用我的消費行為數據?我在多大程度上愿意暴露我的私生活?在什么樣的環境不允許裝這個數據采集器?我覺得這些其實就在眼前了。

Q:這么多的倫理問題又應該怎么解決呢?

A:我覺得這是我們需要面對的問題,但不是無解的問題。就像當年從馬車變成了汽車,才有了紅綠燈和人行道。社會的治理方式和制度的安排,一直都是跟著技術的發展而不斷調整和改變的。

Q:前面說到人口紅利和大數據采集,但是這其實也面臨一個信息安全的問題。事實上我們今天的消費行為甚至個人資訊已經是透明的。

A:這一點我就覺得挺恐怖的,將來絕不僅僅是某些明星和名人的隱私,而是我們每個人的隱私、我們的消費習慣是不是能夠得到足夠的保護?因為我不想將來我得到的每一個推送,其實都是人工智能很有心機、很有套路地推送的。你還以為是你自己的要求,其實是別人對你的行為的預測。

并且我覺得中國當下應該開始研究隱私方面的法律保護了,可以說中國是攝像頭最多的國家,從人臉識別到人工智能的使用,能夠讓像G20峰會這樣的大型會議在開辦之前,可以非常高效地抓到在這個城市潛伏的嫌疑犯,因為他們哪怕是一個側面(被捕捉)都可以被認出來。

技術進步在推動社會發展的同時,法規和制度建設上的配套一定要跟上。

在我有生之年,我的工作不可能被人工智能替代

Q:你目前的生活跟人工智能的關聯度高嗎?

A:我主要是用手機,我們家還沒有用掃地機器人。包括我現在,到睡覺的時候我都希望把手機徹底關掉,或者把它放到另外一個房間去充電。但是一想到未來的手機也好,空調也好,都在搜集我的數據,我就感到不寒而栗,好像有一種裸奔的感覺。所以我覺得未來可能我會比較有意識地把我的工作環境和我的臥室分開,雖然可能分開了也沒啥用……

Q:你覺得自己的生活需要跟機器人隔離開嗎?

A:那不會。如果是在工作的場景下,我可能很需要一個人工智能的助理,來幫我安排一些瑣碎和需要數據處理方面的事情。比如我做采訪之前做功課,需要好幾個研究員或編輯來做案頭的工作,其實將來可以讓語音搜索和圖像搜索幫助完成很多工作,所以我覺得它還是會為我的工作和生活帶來很大的便利的。

Q:你覺得你的工作會被人工智能替代嗎?

A:不會,我認為在我的有生之年,我的工作不會被取代。因為我不僅僅是在做一個簡單的播報的工作,背后還有很多綜合性的思考。我覺得機器在短期內,沒法取代我的工作。

關于人工智能的“權威碰撞”

許多年前有一本小說,書名是《海底兩萬里》。這部幻想作品中的人,發明了一艘使用核動力的潛水艇。如今這早已經成為尋常的現實了。

某種意義上,我們已經進入了前人所預言的時代。

硅谷流行這樣一句話:預測未來的最好方式就是創造它。

人類創造了機器,機器又改變了人類。

2016年5月,一輛特斯拉汽車在美國佛羅里達州與一輛拖車相撞,駕駛員喪生。事故原因是處在自動駕駛模式的汽車沒能在明亮的天空下發現拖車的白色車身。

特斯拉汽車“自動駕駛”是一項輔助功能,每一次自動駕駛啟動時,車輛都會提醒駕駛員“請始終握住方向盤,準備隨時接管”。

放開方向盤,意味著人類將一部分掌控權交給了機器。

這也帶來了更多的法律和倫理問題:

例如誰來為交通事故負責?

當汽車成為智能的移動空間萬一有黑客入侵,誰來保證乘客的安全呢?

機器也將面臨人類的道德困境:

在f不得已的情況下,自動駕駛汽車到底該優先保護車內的乘客,還是路邊的人群呢?

如果選擇后者,誰又會愿意購買一輛會犧牲自己的汽車呢?

英國著名物理學家史蒂芬?霍金多次公開表示對人工智能的擔憂,他認為:“對于人類來說,強大的人工智能的出現可能是最美妙的事,也可能是最糟糕的事,我們真的不知道結局會怎樣?!?/p>

特斯拉汽車公司掌門人伊隆?馬斯克甚至宣稱:隨著人工智能的發展,我們將召喚出惡魔。

馬文?明斯基是人工智能的先驅之一,他有個著名的說法“如果我們走運的話,機器或許會把我們當寵物養著?!?/p>

但是,更多人工智能專家的觀點是:

現在擔心邪惡的智能機器人奴役人類,就像擔心火星上人口過剩。――百度前首席科學家吳恩達

在整個人類歷史上,其實只有兩次大事件是從根本上改變了人類生存狀態,一次是工業革命,一次是農業革命。這一次的智能革命是堪比這兩次革命的重大事件,可能更為重要。而且,要快速的多。――牛津大學人類未來研究院院長尼克?博斯特羅姆

人工智能會改變人類社會。因為作為一個那么強大的科技,它不光是針對情感、或意圖,它也是對智能本身,對有知覺的存在本身的一個挑戰。這是一個很好的哲學社會話題。――斯坦福大學人工智能實驗室主任李飛飛

篇7

關鍵詞:人工智能;犯罪主體;刑罰

新事物的發展會對社會原有規范產生沖擊,因此社會規范需要不斷調整來應對這些問題。人工智能的出現對傳統社會規范特別是刑法犯罪主體認定、罪名設置等提出了深刻地挑戰。[1]面對這些刑法應該如何應對值得我們深入思考。

一、人工智能對刑法傳統制度的沖擊

人工智能大致可分為弱人工智能、強人工智能和超人工智能階段。超人工智能在當下來看太過科幻化,我們暫且不在本文中討論。弱人工智能具有超強的運算和學習能力,但只能在人類設定的算法程序下實施著特定動作;而強人工智能除了具備弱人工智能的優點外還可能像人類一樣擁有自主意識。

(一)弱人工智能對刑法的影響

1.弱人工智能對犯罪主體認定的沖擊。無人駕駛汽車造成的交通案件是人工智能對犯罪主體認定提出挑戰的典型代表。無人駕駛技術參與的交通肇事與一般交通肇事在本質上是一樣的,唯一的爭論焦點就在于人工智能可否成為交通事故的責任者。在現行刑法領域內,犯罪都是“人”在實施的,這里的“人”指的是自然人和法人,從目前的刑法條文來看人工智能不是犯罪構成要件中的“人”。[2]無人駕駛汽車可以完全由人工智能來操作,那么在“人”退居幕后的情況下交通肇事的行為是由誰實施的呢?刑法學上刑事主體的歸責原則是“無行為無犯罪”,如今人工智能仍只是被視為高科技產品,違反交通法規并不是它的“本意”。既然其沒有支配行為的意志,將其認定為犯罪主體在目前來看是不合適的。

2.弱人工智能對罪名設置的影響。弱人工智能在現階段仍被視為工具,它在特定程序的控制下“聽命”于人類,這使其很容易被不懷好意之徒利用而成為“得力”的犯罪工具,但是由于人工智能的類人化特點使其與傳統的犯罪工具相比大相徑庭,例如有人利用人工智能進行在現階段應該如何定罪呢?我們發現現行刑法并沒有針對這種行為的罪名設置,根據罪刑法定原則無法對其定罪。

(二)強人工智能對刑法的影響

1.人工智能對主體責任判斷的沖擊。強人工智能可能像人類一樣擁有自主意識而被賦予主體資格獨立承擔刑事責任,而刑事責任的承擔需要分析積極因素和消極因素兩個方面,積極因素包括罪過(故意、過失)、目的等,消極因素包括責任阻卻事由等,所以說刑事責任的判斷是需要分析主體的主觀意識的。而主觀意識往往是不可觀的,在傳統犯罪中我們可以通過客觀行為判斷出主體的主觀意識;而強人工智能體的算法邏輯和人類的思維邏輯可能是完全不同的,也就是說我們無法通過客觀行為來判斷它的主觀意識,那么在這種情況下我們該如何判斷人工智能的主觀意識呢?

2.人工智能對刑罰制度的影響。人工智能從本質上來講是由特定程序控制的計算機。鑒于人工智能心智和形體可分離的特殊性,一旦被賦予刑事主體資格,在人工智能觸犯刑法時要規制的是控制它行為的特定程序,而不是該程序的外在載體即計算機。因此我們對人工智能適用刑罰時,重點是如何限制其程序的自由或者剝奪其程序的生命等。簡單的切斷電源、斷開網絡或者單純地限制人工智能形體的自由,并不能達到規制人工智能的目的,因為人工智能的程序是由預先輸入的命令語句所決定的,以上措施可使人工智能體暫時無法工作但是其內在特定程序并未改變,在接通電源和網絡或者解除對其自由地限制后很難保證其不會犯同樣的罪行。

二、人工智能時代刑法的制度重構

(一)刑法對弱人工智能階段所產生問題的回應

1.刑法關于弱人工智能對犯罪主體認定帶來的沖擊的回應

以無人駕駛汽車造成的交通肇事案件為例,按照“無行為無犯罪”的傳統刑法規則原則來看,似乎傳統意義上的肇事者已經“難覓蹤跡”了。[3]筆者認為,可以從如下方面來應對人工智能對犯罪主體認定帶來的沖擊:

(1)以交通肇事罪追究無人駕駛汽車使用者的責任。在無人駕駛汽車的行駛中,雖然無人駕駛汽車主要靠車內智能駕駛儀來實現車輛的行駛,但這并不是說免除了使用者的一切注意義務,特別是車輛在情況復雜的道路上行駛時,使用者更要盡到注意義務,若是由于使用者未盡到注意義務造成重大交通事故,則可以交通肇事罪追究無人駕駛汽車使用者的責任。

(2)以產品犯罪追究無人駕駛汽車生產者和銷售者的責任。在現階段無人駕駛汽車仍被當做產品來看待,那么無人駕駛汽車的生產者和銷售者就要為此承擔一定程度的產品質量保證責任,如果不是由于現有技術瓶頸,而是無人駕駛汽車存在質量問題導致重大交通事故的發生,則可以生產銷售偽劣產品罪等產品犯罪來追究生產者和銷售者的責任。[4]

(3)由社會保險來承擔責任。如果說該事故是由于當下技術瓶頸等非人為因素造成的,是社會發展所帶來的風險。[5]那么此時可以選擇由社會保險來承擔這份責任。

2.刑法關于弱人工智能對罪名設置影響的回應。針對可能有人利用人工智能犯罪而法無明文規定的情況,在罪名設置方面有增設新的罪名或者對傳統刑法罪名進行修正兩種方案。增設新的罪名如“濫用人工智能罪”等口袋罪名,在人工智能的外延尚未徹底界定清楚的情況下貿然增設口袋罪會顯得過于寬泛而無法準確定罪量刑。鑒于此筆者認為可以對傳統刑法罪名作出針對性修改使其可以囊括該種類型的犯罪行為,這樣就可以達到制裁此類犯罪維護社會秩序的目的。

(二)刑法對強人工智能階段所產生問題的回應

1.強人工智能階段刑法對人工智能主體責任判斷的回應。上文中我們提到由于人工智能的特殊性我們可能無法通過傳統方式分析出它的主觀意識。[6]對于此筆者認為,既然人工智能是由算法程序控制的,我們不妨通過探究算法邏輯并摸索出算法程序的特點,進而通過分析人工智能的算法程序來判斷它的主觀意識,最終得出其應當承擔的刑事責任。

2.強人工智能階段刑法對人工智能刑罰制度的回應。由于人工智能體的特殊性,現行刑罰制度無法對其直接適用,因此我們需要創造出針對人工智能程序的特有刑罰。比如我們可以考慮通過更高級別的命令語句修改或者重新編寫其程序,以此降低或者終止它的學習和運算能力,這樣就可以達到規制人工智能程序的目的。

結語

人工智能已全面參與到我們的生產生活之中,并對我們的現行社會規范產生了深刻的影響,刑法作為人類社會穩定的重要調節器受到了人工智能的多方面挑戰。因此刑法需要做出針對性的改變,盡量減少人工智能對人類社會造成的消極影響并讓其更好的服務于人類的當下與未來。

參考文獻 

[1] 王軍:《人工智能的倫理問題:挑戰與應對》,載《倫理學研究》2018年第4期。 

[2] 何麗:《基于人工智能視域下的法律主體研究》,載《政法學刊》2018年第3期。 

[3] 譚釗:《淺談無人駕駛汽車的前景和面臨的挑戰》,載《東方法學》2017年第8期。 

[4] 林偉杰:《產品質量法釋義》,中國民藝出版社2006年4月版。 

[5] 林偉:《關于預防人工智能反叛的初步探討》,載《機器人技術與應用》2017年第4期。 

篇8

人工智能的監管與責任,其實和安全與公共福利一樣,都像是硬幣的正反面。監管的目的,是為了確保人工智能系統盡可能的安全;而責任,其實就是為了當人工智能系統出錯時,我們可以找到可以追究問題的人,或者再說的準確一點兒,就是找誰可以獲得法律上的賠償。

應該向誰追責呢?

讓我們先來談談責任問題吧。首先,我們可以模擬一個侵權(民事)責任問題,想象下,在不遠的將來可能會發生這樣一個場景:一輛無人駕駛拖拉機原本應該按照指令在A農民的田里播種,但是奇怪的是,它卻把種子播種到了B農民家的田里。

讓我們先假設A農民是完全按照操作手冊來使用那輛無人播種拖拉機的,同時,我們也假設A農民無需再做其他額外的操作,比如在農田交界處設置無線電信標,等等。那么現在,假設農民B要來控告這次錯誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問題),會遇到哪些問題呢?。

實際上,有很多問題需要被回答,這個事故是農民A的責任嗎?可能不是;那么,是無人播種拖拉機廠商的責任嗎?有可能,但在此之前,我們是不是該明確與這些問題相關的責任和標準呢?比如無人播種拖拉機的行業標準是什么,制造商的產品規格是否符合相關標準呢?不僅如此,如果自己的土地被他人種植上了其他農作物,這是否算是財產損失,又是否能否追溯經濟賠償呢?

在一連串問題之前,我們其實是先假定了無人播種拖拉機里面的系統軟件是由制造商開發的。那么接下來又有新的問題出現了,如果那套人工智能系統是由第三方開發公司完成開發的,該如何處理?還有,系統內部的軟件代碼是由多人合作完成的,又該如何界定各自的職責?

隨著時間的推移,人工智能系統將會越來越不依靠傳統的經典算法和代碼,而且他們也會展示出更多我們無法預料到的行為,值得一提的是,這些行為沒有人可能預測得到,甚至包括人工智能系統的創造者也無法預料。但重要的是,可預見性,其實是處理責任過失問題中一個非常關鍵的組成部分。

為了能夠讓讀者更好地理解可預見性問題,我們才會假設了上面那個無人播種拖拉機的案例,或許十年、二十年之后,人工智能已經不再是簡單的種錯莊稼這件事兒了,它可能會是某個意外讓人們受傷,更嚴重一些,人工智能可能會不小心殺人。所以,如果我們的法律無法適時作出改變,那么未來將會導致更多問題出現。就拿上面那個人工智能種錯莊稼的事情為例,當無法實現可預見性,最終的結果就是沒人承擔責任!

責怪人工智能機器人

為什么我們不干脆去責怪機器人呢?畢竟,關于人工智能人格也有過討論,而且人工智能系統本身也有擔負刑事責任的可能。

但是,這種方法在實際應用時又有什么不一樣呢?這里,還是借用別人曾經說過的一句話吧?!叭斯ぶ悄芟到y真的會像著名小說家艾薩克·阿西莫夫筆下的機器管家那樣嗎?遵守法律,遵從道德良知,還能保護銀行存款?”

我們姑且不去討論人工智能系統是否可以被起訴,但人工智能制造商和開發商們必須受到監管。只有這樣,才有可能將一些無法歸責的各方,用嚴格責任賠償(注:嚴格責任賠償是指只要造成了損害,不論行為人有無過錯,都要承擔賠償責任。常見的適用于無過錯責任原則的,有從事高壓、劇毒、高速、放射等作業造成他人損害的。工傷是典型的適用無過錯責任原則的,也就是說只要勞動者在工作期間因公受傷了,排除勞動者個人主觀故意的因素之外,雇用單位無論有無過錯都要承擔工傷賠償的責任的。)約束起來,

實際上,在我們的日常生活里,嚴格責任賠償已經應用到了很多地方。當然除了這種責任賠償之外,如果需要對人工智能追責,其實也可以采用無過錯責任賠償和賠償方案池等方式。

規章制度

如果從監管的角度來看人工智能,那么你會發現,嚴格的安全標準,以及建立完善的安全認證流程也都是非常必要的。不過,如何設計一個合適的機構與流程框架,并且讓這個框架得以有效運行,依然是一個非常棘手的問題。

人工智能領域復雜難懂,而且外部世界對于人工智能研發圈子普遍缺乏認識,這也就是人工智能專家需要盡快創建行業框架的原因所在。實際上,這里所說的框架,就是規章制度,說通俗些也就是游戲規則。因此,這意味著人工智能顧問委員會需要和政府一起,盡快立法,建設行業標準。

我們不得不承認,人工智能行業存在巨大的潛在效益;但是標準和流程,需要不斷的創建、更新、并且執行,這樣才能達到一種持續性平衡,繼而最大限度地提高公共福利和安全;當然,也只有這樣,才不會扼殺創新,更不會出現不必要的法律負擔。

事實上,站在國家的角度上,建立任何一個法律框架或游戲規則,都必須要足夠靈活,監管機構不僅需要考慮到本國利益,也要從全球角度出發。這意味著在某種程度上,你不僅要考慮本國的人工智能產量,以權衡進口其他各國人工智能技術,同時,你還要思考該如何任何不同國家之間的安全標準和認證,必要的時候,你是否還需要遵守未來可能出現的國際條約或公約,等等。所有這一切,遠比我們想象的要復雜得多。

推薦期刊
九九热国产视频精品,免费国产不卡一级αⅴ片,欧美日韩蜜桃在线播放,精品国内自产拍99在线观看
最新国产在线理论免费观看 | 日本亚洲国产精品久久 | 亚洲理论在线中文字幕a | 在线观看人成视频无遮挡 | 亚洲精品中文字幕制服丝袜 | 香蕉免费人成视频在线观看 |