人工智慧演進:詳細時間軸解析與重大成就

Hao Kao

Hao Kao

9 min read

1950 之前 : 早期人工智慧萌芽

1930年代至1950年代,人工智慧的概念尚未形成清晰的定義,但奠定了重要的理論基礎。直到 1956年,約翰·麥卡錫在美國達特茅斯學院召開了一場關鍵的學術會議,首次正式提出「人工智慧」這個名詞,明確定義了AI作為研究領域的獨立地位。

  • 1936 圖靈提出「圖靈機」理論模型,奠定電腦科學與人工智慧的基礎。

  • 1950 圖靈首次提出「圖靈測試」,用以檢驗機器是否具有人類智能。

  • 1956 達特茅斯會議召開,「Artificial Intelligence(人工智慧)」術語首次提出,標誌著AI研究正式誕生。


1950年代–1970 : 符號式 AI 時代

這一時期,AI研究主要聚焦於符號推理與邏輯推理,試圖以邏輯規則模擬人類智慧。研究者相信,只要有足夠完整的邏輯規則,機器就能展現出智能的行為。然而隨著研究深入,符號主義面臨了一系列的挑戰,尤其在常識推理及語言理解上表現出了巨大局限。1960年代,ELIZA的誕生,儘管僅能做簡單的文字回應,卻標誌著最初對自然語言處理的嘗試。1973年,英國的萊特希爾報告對符號主義AI的成果表示失望,導致政府資金大量縮減,進而引發第一次「AI寒冬」,使研究陷入低潮。

  • 1950~1960 符號式 AI

    人工智慧研究主要採用符號式方法,試圖以邏輯和符號推理實現智能。在這一時期,研究者開始認識到許多AI問題的難度被大大低估了。雖然某些領域取得進展,但真正具有常識推理能力的「通用AI」仍遙不可及

  • 1973~ 第一次 AI 寒冬
    萊特希爾(James Lighthill)發布報告,批評AI研究未能達成期望,導致資金撤退,「第一次AI寒冬」來臨。


1970年代–1990年代:專家系統時代

專家系統時代,AI逐漸從純理論轉向實際應用,強調明確規則庫的建構,以模擬專業人士的決策行為。這種AI模式最初在醫療診斷、財務規劃及製造業流程控制等領域取得了顯著成果,許多企業因此採用了專家系統。然而,隨著系統規模增大,知識庫的維護與更新變得異常困難且成本高昂,最終專家系統因無法有效學習和適應變化而逐漸被市場遺棄。1987年後,第二次AI寒冬隨之而來,產業界及投資界對AI的信心大幅下滑。

  • 1970~1980 專家系統時代
    專家系統興起,透過明確規則協助專業決策,廣泛應用於醫療、金融與工程領域。
    專家系統是一種基於知識和規則的AI程式,它模擬人類專家的決策過程,用於解決特定領域的問題。

  • 1980年代中期:專家系統大規模應用於產業界。

    專家系統真正的大規模應用出現在1980年代中期:計算機性能提高和商業需求的驅動使各行各業開始採用專家系統來輔助決策。

  • 1987~ 第二次 AI 寒冬
    專家系統的侷限性逐漸凸顯,系統維護與擴展成本高昂,到了1980年代後期,市場對專家系統的過高期望再次轉為失望,加之硬體泡沫破裂,投資人對AI的興趣減退。


1990年代–2012:機器學習崛起

知識驅動轉向數據驅動的范式轉變,進入1990年代後,隨著計算資源的提升和數位資料的激增,「機器學習」逐漸成為AI領域的焦點。相較於以往手工編寫規則的專家系統,機器學習強調讓演算法從資料中自我調整和改進。

諸如支持向量機(SVM)、決策樹等新方法興起,傳統機器學習逐漸成為AI主流。而深度學習相關技術也在這時間萌芽。

  • 1986 Backpropagation
    Rumelhart、Hinton等人提出Backpropagation(反向傳播)算法,使深度神經網路訓練成為可能,為深度學習革命埋下伏筆。

  • 1990 RNN 提出
    遞歸神經網路(RNN)提出,成為處理序列數據的關鍵技術。

  • 1995 SVM 提出
    由Vapnik和Cortes提出,在許多模式識別與分類任務中表現突出,成為經典的機器學習演算法之一。

  • 1997 深藍(Deep Blue)擊敗西洋棋世界冠軍卡斯帕羅夫

  • 1997 LSTM 提出
    長短期記憶網路(LSTM)問世,有效解決長序列的梯度消失問題。

  • 1998年 Gradient Boosting 提出

  • 1998 LeNet-5 提出

    最早用於手寫數字識別的卷積神經網路(CNN)

  • 2001年Random Forest 提出

  • 2006 逐層預訓練方法提出,大幅提升了深層網路的訓練效果


2012-2017 : 深度學習時代

2012年AlexNet的成功標誌著深度學習時代正式開始,深度神經網路在圖像識別任務中展現出遠超傳統方法的能力。隨後的數年內,各種深度學習技術迅速崛起,包括GAN、ResNet、VGGNet和GoogLeNet等,使得AI技術廣泛應用於影像辨識、語音辨識、自然語言處理等多個領域。2016年,AlphaGo擊敗李世石,標誌著AI不僅能學習人類經驗,更能自行發現超越人類認知範疇的策略。

  • 2012 AlexNet
    AlexNet的成功證明,在有大量數據和強大計算資源的前提下,深度神經網路可以在複雜任務上顯著優於傳統方法。自此之後,深度學習技術加速滲透到語音辨識、機器翻譯、自然語言處理等各個AI領域,使2010年代成為「深度學習的十年」。

  • 2014 VGGNet, GoogLeNet

  • 2014 GAN(生成對抗網路)

  • 2015 ResNet
    引入殘差學習機制,有效解決了深層網絡的梯度消失問題,使得網絡可以達到上百層,極大推動了更深結構的應用

  • 2015 Fast R-CNN、Faster R-CNN

  • 2015 YOLO (You Only Look Once) 系列

    • 2015 年:YOLOv1 提出

    • 2016 年:YOLOv2 提出

    • 2018 年:YOLOv3 提出

    • 2020 年:YOLOv4、YOLOv5 提出

    • 2021 年後:YOLO 系列持續迭代,例如 YOLOv4、YOLOv5、YOLOv7、YOLOv8 等不斷推陳出新,成為物件偵測領域最主流的方法之一。

  • 2016 AlphaGo 擊敗圍棋冠軍李世石


2017~至今:Transformer 的大型語言模型(LLM)時代

2017 Transformer的出現推動了語言模型及多模態模型的革命,使得自然語言處理技術飛速進步。從BERT到GPT系列,大型語言模型迅速擴展了AI的能力範圍,使機器在語言理解、程式碼生成與圖像生成等領域都表現出了前所未有的潛力。ChatGPT及GPT-4更是掀起全球AI熱潮,引發了關於AI應用與倫理的大量討論。

  • 2018 OpenAI GPT 模型

  • 2019 Bert 模型

  • 2022 Stable Diffusion

  • 2022 基於 GPT-3 的 ChatGPT 發布,造成全球 AI 熱潮