2018年AI市場負面信息預測:道德倫理、機器歧視人類事件將出現

在人工智慧市場,有幾項非常重要,但常被忽視的事件,需要在2018年引起注意。

首先是人工智慧在2017年經過爆髮式發展后,帶來了人才的極度匱乏。

全球知名職場社交平台領英發布的《全球AI領域人才報告》顯示,截至2017年一季度,基於領英平台的全球AI(人工智慧)領域技術人才數量超過190萬,其中美國相關人才總數超過85萬,高居榜首;中國雖然位居全球第七,但相關人才總數只有5萬多。

無論是研究開發領域,還是應用落地領域,人工智慧各個環節對人才的需求有增無減,而人才短缺已成為我國人工智慧發展中的最大短板。工信部教育考試中心副主任周明此前向媒體透露,中國人工智慧人才缺口超過500萬。

其次是一個更加令人擔憂的事情正在隱隱爆發,即AI人才的ROI

因人工智慧人才培養滯后帶來人才等商業成本上升,AI的ROI(投資回報率)面臨高估風險。以當前統計學、數學、機器視覺等專業畢業的研究生來講,其畢業當年年薪可達25萬-50萬之間,但從AI技術,到落地應用,並非能在短時間內實現,更何況並非每項落地應用都能快速帶來收益回報。

Advertisements

因此,整個人工智慧產業都要警惕人工智慧人才的ROI堤壩,如何防止其坍塌。

人工智慧帶來的政治、經濟、倫理、安全、歧視問題

人工智慧可高效開展實際任務,如給照片貼標籤、理解口頭和書面自然語言、甚至幫助確診等。」他指出,「而我們必須確保所有人都能從中受益。

最大的問題在於,這些軟體往往極為複雜,無法參透人工智慧系統採取某一行動的原因。如今的人工智慧以機器學習技術為基礎,導致我們無法透過表面、看個究竟。因此我們只能姑且信任它們。但我們必須找出新方法,有效監控和審查人工智慧參與的系統。

人工智慧的倫理問題備受關注

哈佛法學院網路法教授喬納森·齊特林(Jonathan Zittrain)認為,隨著計算機系統日趨複雜,人們或許將難以對人工智慧系統進行密切監視。「隨著我們的計算機系統越來越複雜、聯繫越來越緊密,人類的自主控制權也不斷減少,這使我很擔心。」他表示,「如果我們『放手不管,忘到腦後」,不考慮道德倫理問題,計算機系統的演化或許會令我們懊悔不已。」

Advertisements

其他人也表達了同樣的憂慮。「我們如何判斷這些系統是否安全呢?」美國杜克大學人類與自主實驗室主管米西·康明斯(Missy Cummings)指出。她曾是美國海軍首批戰鬥機飛行員之一,如今是一名無人機專家。

人工智慧需要受到監視,但具體做法尚不清楚。「目前我們還未就監視方法達成統一意見,」康明斯表示,「在缺乏系統測試的行業標準的情況下,這些技術很難得到大規模應用。」

谷歌等許多知名公司已經成立了倫理委員會,監控人工智慧技術的研發和部署。但這一做法還應進一步普及。「我們無意阻止創新,但眼下也許我們就該成立這樣的機構。」

人類將遭到機器人的歧視

有關谷歌倫理委員會的成員和工作細節,我們還知之甚少。但去年九月,Facebook、谷歌和亞馬遜達成合作,旨在為人工智慧為安全和隱私造成的挑戰提出解決方案。

道德問題對就業影響頗深。隨著人工智慧的發展,機器人可以勝任更加複雜的工作,能夠取代越來越多的人類工人。例如,中國富士康集團已經宣布將用機器人取代六萬名工廠工人。福特汽車在德國科隆的工廠也啟用了機器人,與人類工人並肩工作。

此外,如果不斷提升的自動化水平對就業產生了重大衝擊,便會影響人類心理健康。

機器人已經開始與人類並肩工作。有些人認為這會使工人的心理健康受到影響。

制定行業與倫理標準、充分了解當前面臨的風險,需要倫理學家、科技人員和企業領導人共同參與。這一問題涉及如何駕馭人工智慧、使人類更加擅長自己最拿手的領域。「我們更應關注如何利用相應技術幫助人類思考和決策、而非將人類取而代之。」齊特林指出。

Advertisements

你可能會喜歡