揭秘生成式AI

人工智慧「訓練」的原理及最佳解決方案

我們可將人工智慧模型想像成人類的大腦,人腦有上千億個神經元,和好幾百兆條突觸聯結,人工神經網路也有一層層的節點(node),節點就如人類的神經元,節點間的連接單元,有如人腦的突觸聯結。

當輸入值(input)從一層節點傳輸到下一層節點,人工智慧會依據輸出值(output)的正確性,給予參數一個正數或負數的權重(weight),等於是在幫決策過程打分數。透過「前向傳播」(或稱預測)和「反向傳播」(或稱回饋)的反覆循環,參數的權重變得非常精確,AI幾乎每次都會挑選正確的輸出值。打個比方,這就如先前分析的海量資料在演算法中留下了「軌跡」,讓新的數據更容易找到正確的方向。也就是說,AI模型不是真正理解您的指令,但它在訓練過程中接觸過許多相似的指令,因此它能揣測您期待看到什麼答覆,幾乎萬無一失,而且它也能以文字或圖片形式呈現答覆。

AI訓練階段,海量的標籤化資料灌入演算法中,讓人工智慧「練兵」。AI用這些資料練習猜測、調整參數,並反覆檢查輸出值的正確性,提升猜測的精確度。久而久之,AI「猜」力變得萬無一失,等於是學會了人類希望它辨識的資訊。

資通訊時代,智慧裝置隨時隨地蒐集資訊,所造就的「大數據」,對AI訓練有很大的幫助。早期的AI訓練要求使用標籤化資訊,還需要人類工程師全程監督,但後來AI變得更聰明,能使用未標籤化的資訊進行「無監督式」或「半監督式」學習,從此加快了生成式人工智慧的開發速度。