close
輝達GTC大會登場 黃仁勳點名 4大AI最夯

【時報-台北電】繪圖處理器(GPU)大廠輝達(NVIDIA)將在美西時間3月20日至23日舉辦年度GPU技術大會(GTC),隨著近期聊天機器人ChatGPT帶動的人工智慧(AI)風潮席捲全球,輝達創辦人暨執行長黃仁勳看好運算系統及生成式AI工業元宇宙大型語言模型雲端運算四大AI應用發展。法人看好台積電將直接受惠並達成年度營收續創新高目標。

輝達預期將有超過25萬人報名參加這次為期四天的GTC線上大會,大會邀集來自幾乎所有運算領域研究人員、開發人員和產業領袖的650多個議程。黃仁勳表示,這是在AI史上見證到的最非凡時刻,新的AI技術和迅速普及的應用正在改變科學和產業,並為成千上萬的新公司開闢新領域。

隨著微軟、Google、亞馬遜AWS、阿里巴巴、百度等各家網路大廠積極打造生成式AI應用,業界看好GPU需求會提前進入成長循環,除了輝達將調整生產計畫提高資料中心GPU出貨,超微及英特爾今年內亦有推出專為生成式AI打造的GPU,台積電順利承接三大廠訂單,今年營收續創新高目標可望順利達成。

聊天機器人ChatGPT帶動AI應用全面落地,生成式AI成為今年輝達GTC大會主軸。輝達認為,為了有效運用算力達成AI應用目標,大規模資料中心勢必要增加資本支出以擴大雲端運算效能,同時也會帶動邊緣AI裝置銷售。再者,工業自動化在後疫情時代成為主流,工業元宇宙及機器人應用亦需要加入AI運算機制。

至於當紅的生成式AI將大量導入資料科學技術,搭配結合全新演算法的AI運算系統,以及提高由機器學習、訓練到推論的AI應用負載,並同步建構出大型語言模型機制。黃仁勳將會在輝達GTC大會中,宣布推出提高生成式AI算力的全新解決方案,涵蓋範圍包括生成式AI如何改變創意過程、如何推動自駕車系統發展、如何使用模擬來發展機器人於現實世界中部署等。

 

輝達指出,元宇宙應用和生成式AI興起需要更高運算能力的底層硬體,AI擴增的應用程式、逼真的渲染、模擬及其他技術,能協助專業人員以比以往更快從多應用程序的工作流程中取得關鍵業務成果。要執行這些資料密集、複雜的工作流程,以及與分散各地的團隊共用資料與協同合作,GPU運算及高速網路會扮演更為重要角色。(新聞來源 : 工商時報一涂志豪/台北報導)

============================================================

生成式AI為何?


生成式AI所指的是通過讓機器學習模型研究歷史數據的模式,並且先進的深度學習技術去創造出一個全新生成的成品,其可以是一段文字、一張圖像、一個音訊檔、抑或是一部影片。

同許多人工智慧技術一樣,生成式AI不僅是在研究領域中積極的科學家們探索新的訓練方式、神經網路設計、以及新的發展,同時也在商業領域中,廣受許多企業與新創們探索新的用例、優化許多商業既有之流程等。

在眾多用例當中,最為貼近我們生活的就包含許多假冒為名人的影像在YouTube等平台上出現;同時還有自2019年開始就出現在網路上的「ThisPersonDoesNotExist」網站,可以生成出全新的臉;再者,還有一些更為先進的應用,譬如文字生成(近期非常轟動的ChatGPT與InstructGPT即是建立在GPT 3.5之上所落實的開發,一出版即體現出整體自然語言處理與生成的技術成熟。)、音樂生成、圖像與影像生成等,雖然這些技術在處理許多邊緣案例仍然有許多進步空間,但不難看到生成式AI在各個產業當中蘊含的潛力。

當然也有一些聚焦在個別產業的應用,而這一類型的應用中,有許多已然創造出充分的商業價值,並且預計也將成為生成式AI價值最龐大的領域。譬如在藥物探索階段中,通過化學物質在吸收、分配、代謝、排泄、以及毒性等的活動特性中,由生成式AI根據要求與特徵,生成出模板讓研究人物測試(這一類型的應用也泛稱為3D形狀生成)。

生成式AI如何運作?
生成式AI通常是依賴兩個主要的ML框架去運作,其中之一為GANs(Generative Adversarial Networks),也就是生成對抗網路,GANs也是生成式AI的第一波主流應用,其中前面所提到的生成不存在人類的網站,就是以GANs技術為背景。

簡單來說,GANs分別是由鑑別網路(Discriminating Network)與生成網路(Generative Network)構成,透過兩者相互對抗產生結果是運作的原理。

所以在圖像應用上的訓練方式,就是給予真實圖片,並且讓模型從圖像中採樣隨機的噪音向量(Noise Vectors),並以此為基礎生成,並在以真實與生成出來的圖片訓練出鑑別者(Discriminator),並讓兩者互相比較。

而近期在更加主流的應用則是以Transformer為基礎的技術的GPT(Generative Pre-trained Transformer),如字面上的意思,GPT指的是已經訓練好的模型,而這一模型是以Transformer為基礎。Transformer模型即是一種神經網路,藉由追蹤序列資料中的關係,學習上下文之間的脈絡及意義,就如同一個句子中的每一個字,也可以理解為一種具有自我注意力(Self Attention)機能的編碼/解碼的架構(Encoder-decoder Architecture)。

GPT相關的技術在近年間不斷的進化,從Google發佈的BERT、再到RoBERTa、GPT-2、T5、TuringNLG、以及最近在語言上稱霸整個領域,由Open AI發佈的GPT-3、以及近期轟動全球的GPT-3.5。

In Detail
生成式AI科技Snapshot
生成式AI的潛在價值為何?
生成式AI許多產業都有龐大的應用層面,而應用場景橫跨運營、客戶體驗、以及產品與服務創新。譬如在汽車產業中,製造商即開始嘗試以生成式AI來設計汽車部件。

而在生命科學當中、化學、材料科學當中,生成式AI在3D建模的龐大潛能也讓其在探索階段(Discovery Phase)擁有龐大的應用。

而聚焦在創意、行銷、設計、以及客戶體驗中,生成式AI則是近乎所有大廠的競爭重點,從Meta的影片製作(Make-a-video)、到Google同樣的影片製作解決方案Phenaki;還有在圖像生成中,微軟也推出了Designer與Canva競爭,其中的功能即包含以文字敘述創造出專業的圖像設計。而在語言端,也有相關技術聚焦在各個領域的發展去自動化企業內運營、以及提高客戶體驗。

有哪些驅動因素?
以Transformer為基礎的技術不斷的取得更多突破,不論是在文字、圖像、化學物質、還是電腦程式碼(Github Copilot)的生成,而結合其他技術其更是能賦能更龐大的應用,譬如OpenAI所推出的DALL·E 2即是結合了CLIP以及改版的GPT-3,使其可以從文字敘述中生成圖像。
生成式對抗網路相關技術(GANs)、變分自動編碼器(VAE)、自我迴歸模型 (Autoregressive model)、以及zero/one/few-shot學習方式等技術的突破,也讓訓練的成本大幅降低,並且提高了其生成的正確性。
許多雲端平台,包含AWS、Azure等也逐漸提供生成式AI的套件與開發框架,支援開發者能夠更加容易、且無痛的落實相關模型的訓練與部署。
https://zh.oosga.com/docs/generative-ai/

 

 

arrow
arrow
    全站熱搜

    alanntu111 發表在 痞客邦 留言(0) 人氣()