更深入的研究:人工智慧研究的創意史

機器人夢想電羊?讓我們回到AI問題更直截了當(但仍難以回答)的時代。

人工智慧正在快速發展。氣氛是四周。事實開始聽起來像科幻電影和科幻電影就像現實版本(具有更好的圖形)。AI可能終於達到了數十年來一直追求的成熟度水平,並且一直被拒絕,使得它的部分社區和整個世界對其可行性產生懷疑。

科學怪人可能包含與當前相關的相似之處。瑪麗雪萊的哥特小說包含了關於創造和引入人工社會的後果的討論。生物使我們感到困惑的是它的不人道的暴行,然而人類的弱點表現,需要陪伴和存在的危機。

可以說,我們應該關注未來以及我們發現的後果。但是,我們怎麼能把注意力集中到通過將生物大軍注入像當代社會那樣複雜的系統而產生的混亂中?人們也可以專註於成就,這些成功的故事讓這些想法聽起來真實可信。但是,事後如何區分正確的直覺和運氣呢?

它需要自我約束和智慧,暫時擱置工作的各個部分,並評估其根源的堅定性。盛開的樹可以分散注意力。

無論你是在追溯古希臘哲學家的邏輯思維規則,阿拉伯數學家推理的推理還是19世紀知識分子數學知識的力量 - 一個令人不安的概念變得清晰:問題比你可以設計的網路更深即使考慮摩爾定律)。

「我相信我們的成就取決於我們的父親在奇怪的時刻教我們什麼,當他們不想教我們時。我們是由一點智慧形成的。「
翁貝托生態

其餘的討論將從AI的歷史中出現。不是成就史,而是一些重要人物的問題,論點和信仰的歷史。大部分事件都圍繞著60年代,這個時代AI收購了它的官方定義,目的,科學界和對手。

機器能想?

1950年,Alan Turing在他的開創性論文「 計算機與智能」中試圖回答這個故意單純表達的問題。承認其含糊不清和它對理解AI所施加的限制,他通過制定一個思考實驗來進行研究,也稱為圖靈測試:

玩家A是男性,玩家B是女性,玩家C是男性。C扮演審訊者的角色,無法看到任何一個玩家,但可以通過非個人筆記與他們交流。通過向A和B提問,C試圖確定哪兩個是男人,哪個是女人。A的作用是欺騙審訊者做出錯誤的決定,而B試圖協助審訊者做出正確的決定。

重新提出的問題是:

當一台機器在這個遊戲中佔用A部分時會發生什麼?審訊者是否會像他在兩個人類之間玩遊戲時一樣錯誤地作出決定?

圖靈的方法似乎遵循了鴨子測試的原則:如果它看起來像一隻鴨子,像鴨子一樣游泳,像鴨子一樣呱呱叫,那麼它可能是一隻鴨子。

他在涉及智力的「人」方面時的態度,比如意識,就是你不能責怪某人(或某物)沒有你尚未定義的特徵。因此,在我們追求人工智慧時,意識是無關緊要的。

哥德爾的不完備定理是人們試圖談論人工智慧的障礙。根據他們的理論,數學邏輯不能既完整又一致,因此,配備數學邏輯學習的機器(如人工智慧的情況)預計會在學習某些真理時失敗。圖靈對此的回答是相當的解除武裝:你怎麼知道人類智力也不具備它的局限性?

圖靈的論文無論在論點上還是在清晰的辯證結構方面都是奢侈的,然而卻受到對尚未被發現的技術的猜測的限制。

邁向人工智慧的步驟

馬文·明斯基是人工智慧研究領域的先驅之一。在AI家庭照片的滿是灰塵的專輯中,明斯基將成為這個給家庭晚餐帶來不安的老人:「老叔叔明斯基。他非常獨特,總是有一些有趣的東西說「。

明斯基是1956年達特茅斯會議的組織者之一,人工智慧首先被定義為一個術語和一個領域。他大多因為相信人工智慧是可行的,並且以錯誤的手段追求它而貶低他的活力而被人銘記。

讓我們看看1961年明斯基不得不說什麼,當時他被問到人工智慧迄今為止的進展。

我們應該問一下「真的」是什麼情報?我個人的觀點是,這不僅僅是一個技術問題,更多的是一個美學問題,或者是一種尊嚴感。對我而言,「情報」似乎僅僅表現了我們尊重但卻不明白的表演情結。通常,數學中的「深度」問題就是這樣。一旦理論的證明被真正理解了,其內容似乎變得微不足道。

認識到人工智慧的內在困難並從而追求它,明斯基開始設定它的建築支柱。據他介紹,這些是搜索,模式識別,學習,規劃和歸納。

如果程序的最終目的是搜索並找到自己的解決方案,那麼模式識別可以幫助它識別適當的工具,學習可以幫助它通過經驗改進,並且規劃可以導致更有效的探索。關於用歸納能力製作機器的可能性和推理,明斯基不得不說:

現在[根據哥德爾的不完備性定理],不存在可以在所有可能的宇宙中很好地工作的歸納推理系統。但是,考慮到宇宙(我們的世界)或宇宙的整體以及成功的標準,機器的這個(認識論)問題就變成了技術而不是哲學。

文本的其餘部分包含了經常性的要求,即澄清對AI的追求應該通過複雜的分層架構進行。出於這個原因,他質疑感知器的方法,因為它會遇到中等難度的問題。坦率地說,我們不能指望現實是簡單化的。

明斯基可以歸結為阻礙感知者研究的責任,這可能推遲了深度學習的綻放。意識到,即使使用簡單的構建塊,通過進入深層架構可以解決複雜的問題似乎已經逃脫了他,然而,巧妙的洞察力。

然而,他的言論可以被視為最終的建設性批評,因為他們幫助社區探索原始方法的弱點。此外,深度學習可能是迄今為止我們所知道的最好的(以及應用程序的奇妙程度),但不應該被無條件地視為AI的聖杯。

頭腦,大腦和程序

1980年,約翰塞爾生氣了。雖然他早些時候可能會生氣,但這是他決定公開他與強大的AI之間的分歧的那一刻。事實上,即使標題聽起來也很諷刺。我感覺塞爾正抓住我的領子,大力揮舞他的手指,說:「讓我幫你做出一些根本的區別年輕的小夥子。」

「人們得到的印象是,AI這樣的人認為他們可以逃避,因為他們並不認真對待他們,他們也不認為其他人會這樣做。我至少提議一下,認真對待它。「

Searle完全攻擊強大AI的概念,他認為這是計算機實踐任何人類行為的能力。他將這轉化為機器展示意識的能力,而這種意識是類比推翻的。他著名的思想實驗,中國的房間,是這樣的:

你是一個單語言的英語人,他被鎖在一個房間里,有以下幾件事:一大批中文文字(稱為腳本),另一批大量的中文文字(稱為故事)和一套英文規則,指導你如何匹配中文第二批次的符號(稱為程序)。然後,你會得到另一批中文寫作(這次叫做問題),另外一組英文說明的規則使問題與其他兩批相匹配。恭喜你,你剛剛學中文!

這是Searle於1980年推出的中文室實驗。思想實驗本身並不是一個實驗,因為它的目標不是進行的,而是探索一個想法的潛在後果。最古老也是最有名的可能是伽利略的比薩斜塔實驗(你是否也認為伽利略實際上是從塔上掉落蘋果?)。

Searle的觀點是,如果你能夠接受中文問題來產生中文答案,這並不意味著你懂中文,如果這種能力是通過遵守另一種語言的規則創造的。因此,在給出適當的演算法后給出預期輸出的機器不應該被認為是「思考」實體。

什麼塞爾沒有爭議的是一個程序思考的能力,就某些功能推理而言。他指責現任人工智慧研究人員行為主義和操作性,因為他們試圖將一個程序與一個頭腦等同起來(這是事實),而忽略了大腦的重要性。

根據他的意識來自生物操作,並且由於程序完全獨立於其實現(因為它可以在任何硬體上運行),所以它不能表現出意識。

閱讀原文,人們會感覺到他正在攻擊一個尚未成熟的計算機科學家社區,他們並沒有就智力是什麼達成共識,而是試圖通過目的論方法和猜測來模擬它。

明斯基對塞爾的回應,以及一般的哲學方法,就如同虛無主義一樣:「他們誤解,應該被忽視」。

大象不玩象棋。

你不應該讓它們感覺不好。這篇由羅德尼·A·布魯克斯於1990年撰寫的論文,是一位新的人工智慧傳道者試圖說服,採用論據和他的機器人隊伍,經典的人工智慧方法應該為他留下一些空間。

為了感受那個時代,AI正在經歷第二個冬天。公司和政府意識到社區已經把期望設置得太高,所以資金被削減。

所以,反省的時候了。當某些事情發生根本性失敗時,有兩種方法可以實現:要麼不可能實現,要麼做法有缺陷。

布魯克斯認為,人工智慧的停滯是由於其功能表徵的教條。該符號系統假設是如何運作的情報一個長期的觀點。據它說,世界涉及人,汽車和宇宙愛等實體,所以很自然地將它們與符號相匹配,並與機器一起供給它們。如果這個假設是正確的,那麼您已經為機器提供了所有必要的信息,以便它能夠「智能地」出現。

雖然這個假設似乎並不成問題,但它有一些影響AI的糟糕表現的深遠後果:

  • 符號系統不足以描述這個世界。根據框架問題,假定任何未明確說明的東西都是一種邏輯謬誤。至此,布魯克斯嫵媚地表明:為什麼不把世界當成自己的模型?

  • 智力不能從簡單的計算中產生。啟髮式演算法的巨大應用是培養智能演算法所必需的,這與我們創造知識的嘗試是矛盾的。(你的網格搜索是對人類智力的侮辱。)

  • AI對確保學習模型的普遍性的迷戀導致了布魯克斯稱之為混淆的現象:過度的努力證明該演算法在不明顯的情況下起作用。它確實是一種有吸引力的能力,但它似乎不是知識的根本結果,而且我們的世界是相當一致的。

布魯克的反提議是物理基礎假設。也就是說,允許人工智慧直接與世界交互並將其用作自己的表示。這肯定會改變人工智慧的標準實踐:從學習需要巨大的計算資源,專家的指導以及從未滿足的培訓數據需求,布魯克建議為物理實體配備便宜的硬體並將其釋放到世界中。但這是否低估了這個問題?

布魯克斯認為情報是集體行為而不是複雜的部分。也許他的實驗最深刻的觀察是關於「目標導向行為如何從簡單的非目標導向行為的相互作用中出現」。不需要存在預定的協調模式,因為智能機器應該繪製自己的策略以與世界最佳地交互。

布魯克的進化論證明說服我們強調物理基礎假設的重要性:人類是我們最需要知道的最常見和最接近的例子。因此,在我們試圖重新創造這一特徵的過程中,觀察進化是一種緩慢的適應性過程,逐漸導致人類文明的形成,這是不是很自然?現在,如果考慮到我們發展互動,複製和存活等技能所需的時間,與我們仍然年輕的使用語言或下棋的能力形成對比,那麼可以得出結論:這些是最難開發的技能。那麼,為什麼不把重點放在那個上?

布魯克雖然對他的方法的實用性感到欣喜,但他承認它的理論局限性,這可以歸因於我們尚未完全理解相互作用人群的動態。再一次,工程師對哲學異議的漠視顯而易見:

「至少如果我們的策略不能說服臂膀哲學家,我們的工程方法將徹底改變我們生活的世界。」

AI表現進步

儘管問題浮出水面,但人工智慧體現出我們無法爭辯的事情:進步。儘管如此,從技術進步和啟髮式優勢的影響中剝離現有應用以獲得對當前研究質量的準確認知是一項乏味的任務。

深度學習是否會成為滿足我們苛刻的智力標準的有效工具?或者這是AI再次到達冬季之前的另一個間冰期?

更重要的是,關注點和問題已經從純粹的哲學轉向社會,因為AI在日常生活中的後果比理解意識,上帝和智慧的需要變得更加明顯和迫切。然而,這可能是一個更難以回答的問題,並促使我們深入挖掘。

當維特根斯坦撰寫了Tractactus的時候,他面臨著一個基本謬論的危險:他的論點受到了他的工作理論的傷害。也就是說,如果一個人接受他的教義是真的,他的論點是不合邏輯的,因此他的教義應該是虛假的。但是維特根斯坦有不同的看法:

「我的主張是這樣解釋的:理解我的人最終認識到他們毫無意義,當他從他們身上爬出來時,他們在他們身上。」

為了理解複雜觀念背後的真相,我們需要發展。我們必須堅定我們的前一步,願意放棄它。並不是每一步都必須是正確的,但它必須被理解。當後來面對這個論點時,維特根斯坦說他不需要梯子,因為他能夠直接接近真相。

你可能會喜歡