AI時代:關於人工智慧的一切你需要知道的

Author Avatar

葉孝明

Joined: Feb 2022

解析有關 人工智能的術語,概念

來源: Techcrunch

woman reading book while seating
照片來源: Upsplash

人工智慧(AI)似乎出現在現代生活的每個角落,從音樂和媒體到商業和生產力,甚至約會。有太多東西,很難跟上 – 所以繼續閱讀,了解從最新的重大發展到你需要了解的術語和公司,以便在這個快速發展的領域中保持時尚。

首先,讓我們確保我們都在同一頁上:什麼是AI?

人工智慧,也稱為機器學習,是一種基於神經網絡的軟件系統,這種技術實際上是幾十年前開創的,但最近由於強大的新計算資源而蓬勃發展。 AI實現了有效的語音和圖像識別,以及生成合成圖像和語音的能力。研究人員正在努力使AI能夠瀏覽網絡,訂購門票,調整食譜等等。

哦,但是如果你擔心機器崛起的矩陣類型-不要擔心。我們稍後會談到這個問題!

我們對AI的指南分為三個主要部分,每個部分我們將定期更新,可以按任何順序閱讀:

首先,你需要了解的最基本概念以及最近重要的概念。 接下來,概述AI的主要參與者以及它們的重要性。 最後,列出你應該了解的最新標題和發展的精選清單。

通過閱讀本文,你將能夠了解到當今任何人都希望了解的最新信息。隨著我們進一步進入AI時代,我們還將不斷更新和擴充它。

AI 101

關於AI的一個奇妙之處是,儘管核心概念已經存在了50多年,但在不久前,即使是技術精通的人也很少熟悉這些概念。所以如果你感到迷失,不用擔心 – 每個人都一樣。

我們想要事先澄清的一件事是:儘管它被稱為“人工智慧”,但這個術語有點誤導。智慧沒有一個確定的定義,但這些系統所做的事情絕對更接近電腦而不是大腦。這個電腦的輸入和輸出只是更加靈活。你可以把人工智慧想像成人造椰子 – 它是模仿的智慧。

說完這些,以下是你在任何關於AI的討論中會遇到的基本術語。

神經網絡

我們的大腦主要由稱為神經元的互相連接的細胞組成,這些細胞網絡相互結合以執行任務並存儲信息。自20世紀60年代以來,人們一直試圖在軟體中重現這個驚人的系統,但直到15-20年前,當GPU讓數字定義的神經網絡蓬勃發展時,所需的處理能力才普遍可用。在它們的核心,它們只是很多點和線:點是數據,線是這些值之間的統計關係。就像大腦一樣,這可以創造一個多功能的系統,它可以快速地接受輸入,通過網絡傳遞它,並產生輸出。這個系統被稱為模型。

模型

模型是接受輸入並返回輸出的實際程式碼集合。與統計模型或模擬複雜自然過程的建模系統的術語相似,這種類型的模型不是偶然的。在AI中,模型可以指一個完整的系統,例如ChatGPT,或者幾乎任何AI或機器學習構造,無論它做什麼或產生什麼。模型的大小有所不同,這取決於它佔用的存儲空間和運行所需的計算能力。這些取決於模型的訓練方式。

訓練

要創建一個AI模型,系統的基礎神經網絡需要接觸一個被稱為數據集或語料庫的信息集合。通過這樣做,這些巨大的網絡會創建該數據的統計表示。這個訓練過程是計算密集型的部分,這意味著它需要幾個星期或幾個月的時間(你可以根據需要延長時間),並且需要使用大量高性能電腦。原因是這些網絡不僅復雜,而且數據集可能非常大:數十億個單詞或圖像需要進行分析並在巨大的統計模型中進行表示。另一方面,一旦模型完成訓練,當它被使用時,它可以變得更小且要求更少,這個過程被稱為推理。

推理 Inference

當模型實際執行其工作時,我們稱之為推理,這在很大程度上符合傳統意義上的推理:通過對可用證據進行推理來陳述結論。當然,這不完全是“推理”,而是在它所吸收的數據中以統計方式連接點,並且實際上是預測下一個點。例如,對於“完成以下序列:紅色,橙色,黃色……”,它會發現這些詞對應於它所吸收的列表的開頭,即彩虹的顏色,並推斷出下一個項目,直到它生成該列表的其餘部分。推理通常比訓練過程的計算成本要低得多:可以把它想像成查閱卡片目錄而不是組裝它。大型模型仍然需要在超級計算機和GPU上運行,但較小的模型可以在智能手機或甚至更簡單的設備上運行。

生成式人工智慧 Generative AI

人們都在談論生成式AI,這個廣義的術語指的是一個能夠生成原始輸出(例如圖像或文本)的AI模型。一些AI模型可以進行總結,一些可以重新組織,一些可以識別等等,但是現在特別流行的是那些能夠生成東西的AI模型(無論它是否“創造”都是有爭議的)。只要記住,僅僅因為AI生成了某些東西,這並不意味著它是正確的,甚至不意味著它反映了現實!只是意味著在你要求之前它不存在,就像一個故事或畫作。

今天的頂級AI術語 除了基礎知識外,以下是在2023年中最相關的AI術語。

大型語言模型 Large Language Model

大型語言模型是當今最有影響力和多功能的AI形式,它們在幾乎包含整個網絡和大部分英語文學的文本上進行訓練。吸收所有這些數據會產生一個巨大的基礎模型。大型語言模型能夠以自然語言對話和回答問題,並模仿各種風格和類型的書面文件,如ChatGPT、Claude和LLaMa所展示的那樣。儘管這些模型無疑令人印象深刻,但必須記住它們仍然是模式識別引擎,當它們回答問題時,它們只是在嘗試完成它們識別到的模式,無論該模式是否反映現實。大型語言模型在回答問題時經常出現幻覺,我們很快就會談到這一點。

如果您想了解更多關於大型語言模型和ChatGPT的信息,我們有一篇完全獨立的文章介紹這些內容!

基礎模型

從頭開始訓練一個巨大的模型需要耗費大量成本和複雜性,因此您不希望不得不經常這樣做。基礎模型是需要超級電腦運行的從頭開始的模型,但它們可以縮小到適合較小容器中,通常是通過減少參數的數量。您可以將這些參數視為模型需要處理的總數,現在可以達到數百萬、數十億甚至數兆。

微調 Fine Turning

像GPT-4這樣的基礎模型很聰明,但它也是一個通才設計的模型——它吸收了從狄更斯到維特根斯坦再到龍與地下城的規則的一切,但如果你希望它幫助你寫一封求職信,這些都沒有用。幸運的是,可以通過使用專門的數據集對模型進行微調,例如使用幾千份已經存在的求職申請。這使得模型對如何在該領域中幫助您有了更好的理解,同時不會放棄它從其餘訓練數據中獲得的一般知識。

從人類反饋中進行強化學習,或稱為RLHF,是一種特殊的微調方法,它使用與LLM進行交互的人類數據來改善其溝通能力。

擴散 Diffusion

圖像生成可以通過多種方式進行,但到目前為止最成功的方法是擴散,這是穩定擴散、Midjourney和其他熱門生成AI的核心技術。擴散模型通過逐漸添加數字噪聲來逐漸降低圖像的質量,直到原始圖像完全消失,從而進行訓練。通過觀察這一過程,擴散模型還學會了反向過程,逐漸向純噪聲添加細節,以形成任意定義的圖像。我們已經開始超越這一點,但這種技術可靠且相對容易理解,所以不要指望它很快消失。

照片來源: OpenAI

幻覺 Hallucination

最初,這是一個訓練中特定圖像滲入不相關輸出的問題,例如由於訓練集中狗的數量過多,建築物似乎是由狗組成。現在,當AI在其訓練集中缺乏足夠或相互衝突的數據時,它就被認為是在幻覺。

這既可以是一個資產,也可以是一個負擔;要求AI創作原創或甚至衍生的藝術作品時,它就是在幻覺其輸出;可以要求LLM以Yogi Berra的風格寫一首愛情詩,它會很高興地這樣做——盡管在其數據集中根本不存在這樣的事情。但是,當需要一個事實性答案時,這可能是個問題;模型會自信地提出一個既有真實性又有幻覺性的回答。目前,除了自己檢查,沒有一種簡單的方法可以辨別哪個是真實的,哪個是幻覺的,因為模型本身實際上並不知道什麼是“真實”或“虛假”,它只是盡力完成一個模式。

人造通用智能或強人工智能

人工通用智能(Artificial General Intelligence,AGI)或強人工智能並不是一個明確定義的概念,但最簡單的解釋是,它是一種強大到足以不僅像人類一樣做事,而且像我們一樣學習和改進自己的智能。有人擔心這種學習、整合思想、然後學習和更快地成長的循環將成為一種自我延續的循環,導致一個無法限制或控制的超智能系統。有人甚至提出延遲或限制研究以防止這種可能性。

這是一個可怕的想法,當然,像《黑客帝國》和《終結者》這樣的電影探索了如果人工智能失控並試圖消滅或奴役人類會發生什麼。但這些故事並不基於現實。我們在ChatGPT等項目中看到的智能表現是令人印象深刻的,但與我們所認為的“真正”智能的抽象推理和動態多領域活動幾乎沒有共同之處。雖然很難預測事情的發展,但將AGI視為類似星際航行的東西可能是有幫助的:我們都理解這個概念,並似乎在朝著這個目標努力,但同時我們離實現這樣的目標還非常遙遠。由於需要巨大的資源和基礎科學進步,沒有人會突然意外地實現它!

AGI是一個有趣的思考題,但當評論者指出,儘管存在著限制,AI已經在今天提出了真實且具有重大影響的威脅時,我們沒有必要引來麻煩。沒有人想要Skynet,但你不需要一個配備核彈的超智能來造成真正的傷害:人們正在失去工作,並且今天仍然會上當受騙。如果我們無法解決這些問題,我們又有什麼機會對抗T-1000呢?

※版權所有,歡迎媒體聯絡我們轉載;登錄本網按讚、留言、分享,皆可獲得 OCTOVERSE 點數(8-Coin),累積後可兌換獎品,相關辦法以官網公布為準※

新增留言