2019三星AI論壇專家雲集,暢談AI應用的全新境界
三星電子致力於引領人工智慧(AI)領域的技術發展,為邁向更光明的未來而努力不懈。為了討論AI技術的前景,並解決與克服研究人員目前面臨的技術挑戰,三星電子近期舉辦了第三屆年度AI論壇。
今年論壇於11月4日、5日在首爾舉辦,集結了來自世界各地的AI知名專家,為共同解決當今AI研究所面臨的艱鉅挑戰,發表引人入勝的見解。
預測AI的下一波趨勢
現今的AI技術,不僅能運用演算法來分析數據,在媲美人類行為認知方面,也取得了長足的進展。隨著運算能力的提升,以及深度學習的進步,AI技術正嘗試自主分析資料,學習在某個特定情況採取最適當的回應。深度學習的大數據應用,為這股風潮起了推波助瀾之效。
雖然近期的進展帶來了曙光,但本屆AI論壇的演講者一致認為,某些技術挑戰仍未獲得解決。來自紐約大學的Kyunghyun Cho教授,用簡單幾句話來形容這項技術的現狀。他說:「想像一下搭載現今技術的AI主體。它不用眼睛,就能看清和偵測周遭物體;它不用耳朵,就能傾聽人們的聲音;它幾乎不開口就能簡短地說幾句話;它幾乎不用學習如何移動手腳。換句話說,在建構真正的智慧機器之路,我們才剛踏出一小步,或只運用一套演算法來驅動這樣的智慧主體。」
來自華盛頓大學的Noah Smith教授,針對這個觀點補充:「藉由在更大的數據集上進行訓練『深度』漸增的神經網路,我們已看到不少的進展。」Smith教授也明確指出,為了使AI技術更上一層樓,還須提出高效率的演算法、降低系統建置成本,並改進學習方法。
演講者也針對AI發展的下一個著眼點,發表了他們的意見,聚焦於無線網路控制、提高AI的自主性、擴大AI在化學和生物研究領域的應用,以及使人類與AI之間的互動更為流暢精簡。
正如同卡內基梅隆大學Abhinav Gupta教授所解釋的:「過去幾年來,我們在AI領域取得了重大進展,但這些進步偏向於解決具有大量數據並受監督的特定任務上。另一方面,人類可以執行數十萬種不同的任務,但只需要極少量、或完全不需要數據以及監督。這便是AI的下一個先進領域:開發不需取得數據與監督的通用智慧和智慧主體。
超越深度學習
三星電子高級技術學院(SAIT)負責統籌論壇的首日活動,該學院的設立宗旨是「尋求無極限且具革命性突破的研究(boundless research for breakthroughs)」。SAIT邀請多位傑出專家輪番上陣,就推動AI創新的深度學習研究方法,發表一系列精彩的主題演講。
三星電子總裁暨裝置解決方案事業部執行長Kinam Kim博士,以闡述三星電子召集各路頂尖AI專家的動機,為該年度盛事揭開序幕。Kim博士談到:「AI技術的影響力,已經深入人類社會的各個層面。在三星AI論壇上,我們與業界最卓越的人才齊聚一堂,共同討論並提出AI發展的方向和策略,讓我們的世界變得更美好。」
接著,Kim博士介紹第一位傑出演講者上台,即來自蒙特婁大學的Yoshua Bengio教授,他以「藉由深度學習對世界產生結構性了解(Towards Compositional Understanding of the World by Deep Learning)」為題發表演說。
Bengio教授解釋:「對於超出分佈(out-of-distribution)的歸納,人類的表現遠優於目前的AI系統。我們認為僅透過文字學習是不夠的,我們努力的方向,是讓學習主體有能力建構一個世界模型,一個能讓語言標籤產生關聯性的模型。」
他繼續補充:「未來深度學習方法的重點,在於強化學習中常見的智慧主體視角,如何協助深度學習發掘更佳的知識表徵。」
接著,由加州大學柏克萊分校的Trevor Darrell教授帶來一場引人入勝的演講,主題為「適應和解釋自主系統的深度學習(Adapting and Explaining Deep Learning for Autonomous Systems)。」Darrell 教授的演講,強調深度學習技術在開發自動駕駛系統上的局限性,並介紹克服這些問題的方法。
正如Darrell教授所解釋的:「近期,分層或『深度』表徵學習,實現了自駕車用的低成本感應器,以及網路媒體上的視覺語義高效率自動化分析。但是,這些模型通常需要大量的訓練數據,因此可能只有在原始的受訓環境中,才能發揮良好的作用。」
Darrell教授隨後針對開發可解釋的深度學習模型,提出建議採用的方法,其中包括在深度網路中,視覺化組成構造的內省法,以及提供自然語言的合理性,用於深度模型分類決策的第三人稱法。
此後,由紐約大學的Kyunghyun Cho教授接力上場,發表「神經序列生成的三大特色(Three Flavors of Neural Sequence Generation)」的精彩演說。
Cho教授解釋:「標準的神經序列生成方法,採用某種預定的生成順序,例如從左至右。儘管近年來取得豐碩的成果,但仍存在一個問題,亦即是否有必要這樣做,以及是否存在其他的方法能使其自動從資料中學習到的順序,而生成序列-而不需預先指定或仰賴外部工具。」接下來,他介紹了可用於序列建模的三種替代選擇:並行解碼、遞迴集預測以及基於插入的生成。
首日的主題演講結束後,由蒙特婁大學的Simon Lacoste-Julien教授主持一場座談會,討論深度學習模型的數據集建立;多倫多大學的Sanja Fidler教授提出一項能更詳細標記圖像資料的新工具;而麥吉爾大學的Jackie Cheung教授則建議採用替代方法,以取代基於新聞文章的自動文件摘要系統。
普林斯頓大學的Jia Deng教授概述了一種建立新識別系統的方法,可使AI更有效率地分析資料;Lacoste-Julien教授討論提高生成對抗網路(GAN)學習效率的各項方法。
開發媲美人類智慧的AI
論壇的第二天活動,由三星電子研究院(Samsung Research)負責主辦,該單位是引領三星電子SET(終端產品)事業部未來技術發展的前瞻研發中樞。論壇的第二天,由來自不同領域的專家學者,暢談如何將AI應用於他們目前的研究中,並揭曉解決AI技術當前限制的更多創新方法。
三星電子總裁暨資訊與行動通訊事業部執行長高東真(DJ Koh),針對三星電子投資AI的重要性,暢談個人的獨到觀點,為第二天的一系列啟發性演講定下基調。Koh談到:「在這個超互聯世界裡,萬物透過5G、AI 和 IoT 技術相互連結,能提供最獨特體驗的企業將成為全球的領導者。我相信,三星電子將以先鋒者之姿,引領5G、AI及物聯網的技術創新。」
當天的第一位主講嘉賓,是來自華盛頓大學的Noah Smith教授。在為人類語言自主分析而設計的數據導向演算法上,Noah Smith教授被公認為全球最頂尖的專家之一。他在演講中介紹了循環神經網路(RNN),並針對語言處理的深度學習模型,概述一條能提高效率的途徑。
Smith教授談到:「目前的深度學習模式,並非基於真正的語言理解,因此,很難解釋其行動背後的原因。實驗發現,在語言模型和各種分類任務上,理性的RNN能帶來具競爭力的表現,特別是它只需更少的標註數據,同時使用更少的參數,且能更快地訓練。」
接下來,卡內基梅隆大學的Abhinav Gupta教授提出一種有助於強化視覺及機器人學習的新模型。Gupta教授示範這個大規模的自我學習機制,如何超越監督式學習(註一)的侷限框架,並闡述如何將它整合至未來的AI主體。
Gupta教授所介紹的自我學習模型,是一種透過視覺理解對實體世界進行建模,藉以了解空間和物體的方法。其目標是建立基於物理知識、空間感知、以及因果關係的預測模型。
緊接在Gupta教授演講後的「特邀演講」,討論將AI擴展到日常生活更多領域的具體方法。
蘇格蘭愛丁堡大學的Vaishak Belle教授指出:「只憑藉接受訓練時所使用的數據,很難讓AI理解周遭的世界,且若涉及變數,數據會產生與開發者完全背道而馳的結論。」
Belle教授強調有必要推動AI開發的透明化與當責性,並建議應在下列領域投注更多努力:首先:開發容易理解的機器學習技術,即使並非AI專家也能理解;其次:是理解演算法中的偏見,以確保作出公平的決定;再者:為AI系統注入道德原則。他所提出的方法係基於符號邏輯,因為它與機器學習的開發具有關聯。
接下來,由紐約大學的Joan Bruna教授針對稱為「圖神經網路」(GNN)的深度學習模型,說明近期的技術進展。Bruna教授解釋:「在整合涉及使用者、裝置和知識的互動時,圖形是一種高效率的工具。在開發媲美人類智慧的AI上,用於表徵圖形、學習與推理關係的GNN,扮演著十分重要的角色。」
接下來的座談會共分為兩大主題:「視覺與圖像」和「終端、物聯網和社交」。此兩大主題都安排了精闢的AI專家解說,並聚焦AI技術及相關應用的討論。
展示三星電子最新的AI進展
每一屆的三星AI論壇,都讓與會者有機會近距離直擊三星電子在AI研究領域的最新進展。今年,三星電子將該論壇作為展示終端AI翻譯技術的舞台,示範該項技術即使在離線狀態下,也能為使用者提供快速可靠的服務。
該論壇還為下一代的AI專家,提供展示研究心血的空間。演講廳外的海報,讓來賓細讀韓國各地大學生、研究生提出的研究和論文。
三星電子對AI技術抱持的願景,聚焦於建立以使用者為中心的裝置與服務生態圈,以深具意義的方式改善使用者的生活。在此次主辦的盛會上,三星電子並非只是展示AI研究的最新進展,也針對該技術所面臨的嚴峻挑戰,積極尋求創新的解決方案。
註一:監督式學習是一種機器學習方法,它僅根據已學習到的數據,來蒐集具有意義的資訊。由於一旦蒐集了大量資料,便可以建立規則,因此自我學習的規模愈大,結論就愈精準。
品牌 > 科技
關於消費者服務相關詢問,請洽三星客服專線 : 0800-32-9999
任何媒體需求及詢問,請聯繫 tw.newsroom@samsung.com.