什麼是 Google 的 LaMDA AI,為什麼 Google 的工程師認為它有意義?

什麼是 Google 的 LaMDA AI,為什麼 Google 的工程師認為它有意義?

谷歌高級工程師表示,LaMDA的人工智能已經變得智能。無論您覺得它令人不安還是令人興奮,這都是一個非常大膽的主張,即使它完全正確,也可能難以證明。

什麼是 LAMD?

LaMDA 是 Language Model for Dialog Application 的縮寫。換句話說,它是一種專門用於創建自然對話的機器學習語言模型。機器學習技術允許計算機發現數據中的模式和關係。因此,例如,您可以在莎士比亞的所有作品上“訓練”像GPT-3(另一個高級系統)這樣的機器學習算法,然後讓它生成讀起來像莎士比亞的新原始文本。

正如 Sundar Pichai(谷歌 CEO)在接受 Yahoo Finance 採訪時所解釋的那樣,LaMDA 是一個在對話方面經過專門培訓的系統。目標是使 Google 系統能夠與用戶進行人類公開對話。

換句話說,向谷歌產品詢問某些事情的人不應該改變他們的想法或言論。他們可以像與另一個人一樣與計算機系統進行交互。

在底層,所有現代機器學習模型都是複雜的數學和統計模型。他們根據在數據中發現的基本模式生成算法。給他們足夠的高質量數據,這些算法將非常高效地完成迄今為止只有人類或其他有情眾生才能做到的事情。

為什麼 Google 工程師認為 LaMDA 是合理的?

有問題的工程師是 Blake Lemoine,他發表了自己和 LaMDA 之間的採訪  ,作為他關於為什麼 LaMDA 可能是合理的論點的一部分。Lemoine 花了幾個月的時間與軟件交談,審問它,向它提出棘手的問題,並發現很難相信它複雜而充分的答案可能是除了有情眾生之外的任何東西的產物。

如果有人想了解 Lemoine 為何會這樣想,閱讀 LaMDA 的回復以了解為什麼這是一個如此引人注目的立場,那就更好了。LaMDA 的反應非常人性化,以至於它們類似於Spike Jonze 的 Her中虛構的個人助理 AI ,在這個故事中,人類與對話式 AI 建立了認真的關係。

不管 Lemoine 關於 LaMDA 的說法是否有分量,值得注意的是,LaMDA 設計的全部目的是創造自然、可信的開放對話。所以從這個意義上說,他的信念表明谷歌在創造可信的對話方面非常成功。如果任何人工智能係統要讓一個人相信它是智能的,那麼它很可能是專門為此設計的系統。

問題在於,出於許多科學和哲學原因,合理性聲明並不是真正可驗證的(或至少不可行或在倫理上是不可驗證的)。要理解為什麼,我們必須簡單地考慮一下“感覺”是什麼意思。

什麼是靈敏度?

“感覺”這個詞本質上意味著某物(貓、人或魔毯)具有感覺的能力。它的詞根與“感傷”或“情緒”相同。感覺不僅意味著某物具有感覺的能力。儘管恆溫器能夠測量溫度,但幾乎可以肯定它沒有感知能力。相反,敏感性是感受的主觀體驗,它首先暗示著“主體”的存在。

在這裡陷入語義是很危險的,因為 Lemoine 很可能將“感覺”這個詞與“理性”、“智能”和“意識”等單獨的概念互換使用。因此,通過論證,這裡最寬容的解釋是 Lemoine 認為 Lamda 是一個有自我意識的存在,能夠以我們通常歸因於生物的方式感受事物、持有信念以及以其他方式體驗事物。

一篇補充文章中,Lemoine 討論了他認為 LaMDA “想要”和“相信”的東西,這強化了這樣一種觀點,即他的演講中的“感覺”不僅僅意味著其嚴格的字典定義。

我們首先不了解感覺和意識

事情是這樣的:我們對心智、意識、智力以及作為具有這些屬性的存在意味著什麼知之甚少。具有諷刺意味的是,機器學習技術最終可能會幫助我們解開我們的思想和它們所在的大腦的一些奧秘。

雖然哲學家和科學家正在整理意識的“黑匣子”,但它似乎仍然是某種大於其各部分總和的結果。意識似乎是一種“湧現”的東西。它是由許多不同的神經子系統相互作用產生的“幽靈”,這些子系統似乎都沒有自己的智能。

同樣,複雜的人工智能,例如 DALL-E 2 圖像生成系統,由更簡單的機器學習模型組成,這些模型相互交互以創建最終產品。由更簡單的系統交互導致的複雜性話題在 AI 世界中很常見,雖然我們可以很好地理解每個子組件的工作原理,但最終結果通常是完全不可預測的。

我們能完全識別人工智能中的智能嗎?

如果為了爭論,人工智能確實是真正意義上的有知覺,我們還能這麼說嗎?LaMDA 旨在模仿和預測人類對話模式,因此在觸發人們與人類智能相關的事物時,這套牌真的很難。然而,我們花了很長時間才將非人類靈長類動物和海豚、章魚和大像等動物視為有知覺,儘管它們基本上是我們的兄弟姐妹。

智能 AI 可能如此陌生,以至於我們甚至不知道我們正在直視前方。這尤其可能是因為我們不知道智能出現的門檻條件是什麼。不難想像,數據和人工智能子系統的正確組合,以正確的方式混合在一起,可能會突然產生可以稱為有感知的東西,但它可能會被忽視,因為它看起來不像我們可以理解的東西.

如果它看起來像鴨子…

聲稱機器是智能的最後一個大問題與聲稱其他任何東西都是智能的問題相同,包括人類。從哲學上講,您不知道與您交談的任何人是否真的很聰明。這是經典的哲學殭屍問題,是關於與人類完全沒有區別的假設生物的思想實驗,除了它們缺乏智力或任何有意識的經驗。

然而,正如艾倫圖靈的著名測試所論證的那樣,人工智能是否“真的”思考和感受並不重要。重要的是它可以很好地模仿思維和感覺的外觀,以至於我們無法將它們區分開來。取決於你問誰,LaMDA 已經通過了圖靈測試,這可能會使 Lemoine 無法證實的說法變得毫無意義。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *