訊8月26日消息,據CNBC網站報道,特斯拉和SpaceX公司的首席執行官埃隆.馬斯克(Elon Musk)曾多次表示,隨著人工智能(AI)的應用越來越廣泛,社會需要更加關註其安全問題。 馬斯克最近在推特上寫道:“如果你不擔心人工智能的安全性,那麽現在你應該擔心了。” 軟件解決方案公司SAP的首席學習官(CLO)珍妮.迪爾伯恩(Jenny Dearborn)對這觀點表示贊同。 事實上,她認為,至關重要的是要開展好有關人工智能知識以及如何更好利用這項技術的教育。 她告訴CNBC:“人工智能將無處不在。這將是我們社會中最普遍的一種現象,而這種現象不會被人們直觀地看到。但它將存在一切事物的背後。” 迪爾伯恩稱,人工智能將影響我們所做的一切,包括掃描證件、滾動網頁、使用應用程序和家庭傳感器係統,以及日常生活的許多其他方麵。結果,人工智能將不斷收集數據和個人信息。迪爾伯恩解釋說,企業可以利用這些信息,應用算法來了解你的行為。 她說:“我們需要利用人工智能讓人類更強大,而不是取代人類。我們需要讓更多的人在如何利用人工智能上發出自己的聲音,這樣我們就不會反過來被人工智能所利用。” 但在人工智能上誰會利用我們呢?我們為什麽要保持小心呢?迪爾伯恩稱,在人工智能領域的前沿有三家公司:穀歌、Facebook和亞馬遜。她說,(如果人類被人工智能所利用)它們“將受益最大”。 迪爾伯恩表示:“對於人工智能滲透到人們生活的程度,人們需要有所了解。這樣,他們就不會在某天醒來說:‘我一直都是被利用的棋子’。” 她以Fitbit等健康追蹤設備為例:一家醫療保健公司可以利用健身應用提供的數據來了解人們的健康習慣。她說:“那麽,如果有一天,對於每天步行少於1萬步的人,它決定增加他的保險費用,人們該怎麽辦?” 迪爾伯恩認為這是一種極端但不是不可能發生的情形。她問道:“誰來做出這個決定?”。她說,如果我們不參與有關人工智能的討論,那這些大公司將擁有全部話言權。 她擔心,人們會為了方便起見而愉快地泄露自己的隱私。她指出:“他們說,‘我可以接受’,但如果(一家公司的所作所為)越過紅線怎麽辦呢?” 迪爾伯恩稱:“現在,大多數公司都比政府擁有更大的權力。”今後,會有大量關於人們隱私、個人自由和紅線的討論。因此,“開展這方麵的教育非常關鍵。” 她表示,我們應該決定我們希望這個新經濟會是什麽樣子,了解我們自己在其中扮演的角色,參與對話並成為知情的公民。這樣,在人工智能如何“設計和以何為導向”上,社會大體上可以做出明智的決定。 馬斯克有類似的觀點,他說:“人工智能對人類文明的存在構成了根本性的風險,這與汽車事故、飛機相撞、藥物錯配、食品安全的影響方式不同——後者隻會對社會造成局部的損害,但人工智能有可能對整個社會造成威脅。” 迪爾伯恩提出了自己的解決方案:“我們應該教育好年輕人,讓他們對我們要去的地方持批評態度。”她支持年輕人進入科技行業,事實上,她說,對我們生活產生最大影響的重大決策經常來自於科技行業,而不是政府。 她說:“如果你想從事衛生保健行業,就選擇以醫療保健為重點的科技類專業;如果你想成為一名神經係統的科學家,那就選擇以神經係統其為重點的科技類專業。” 迪爾伯恩補充說,我們最大的責任是弄清楚社會將如何利用人工智能。 她給出了一個例子:穀歌一直在測試無人駕駛汽車。但是,如果一輛無人駕駛汽車即將發生碰撞,它必須在拯救駕駛員和撞向人群,或避開人群但讓載有駕駛員的汽車發生碰撞這兩項選擇做出一個數學決策,那該怎麽辦? 盡管她承認這是一個極端的例子,迪爾伯恩稱,人們很快就必須對這類問題做出回答。因此,讓更多來自不同背景的人群參與有關人工智能開發和應用方式的討論很重要。 她說:“這就像創造一個政府結構或社會秩序。你需要確保構建這些係統的人們擁有平等的代表性和多樣性。”。 她說,現在的科技領域以白人男性為主,他們同時製定了有關我們的道德和社會原則的規則。 迪爾伯恩稱:“在這方麵,我們不能采取自由放任的方式。這些都是倫理準則和紅線,不能讓營利性公司自行做出這些決定。” 原文地址:http://field.10jqka.com.cn/20170827/c600020415.shtml