何全德表示目前我們應用 AI 技術位於弱 AI ( Artificial Narrow Intelligence, ANI ) 階段,在特定的範圍內執行文字、圖像的辨識或是機器翻譯的功能,例如 Siri 語音助手、客服服務聊天機器人等。進展到可以如同人類自我學習、創造新知識的強 AI ( Artificial General Intelligence, AGI ),以及演進到有能力解決人類無法解決的問題、超越人類智慧的超級 AI ( Artificial Super Intelligence, ASI )階段,這些未來都有可能會逐一實現。
生成式人工智慧( GenAI )可比擬是文字、影音、圖像的接龍,模型經由非常複雜的函式,無數的參數交錯演算,AI 有著強大的潛力有助於我們改善人類生活品質、促進經濟成長、解決複雜難以解決的問題,反之,AI 也可能會帶來道德及倫理問題、AI 戰爭或武器化、資安與隱私的憂慮,既是矛也是盾,我們該如何安全運用 AI 強大的潛力同時也以最大限度降低 AI 風險。

何全德進一步表示,雖然目前我們 AI 應用處於弱 AI 階段,依舊有多模型由我們所廣泛應用,因此我們需有所警覺,AI 的弱點之一是核心模型,如果攻擊者用不準確的資訊毒害訓練數據,核心模型可能會做出不正確或是災難性的決策,因此生成式 AI 雖然具有潛在變革性的優勢,但它也帶來與傳統軟體中明顯不同的獨特風險危機,對於應用方面的規範需要全球科技與企業集體的共識與遵循,才有可能降低風險的危機,適切的規範,或許是安全起點的做法。
有效及可靠(valid and reliable)是 AI 可信任的基石
人們對 AI 看法,有樂觀與悲觀面的兩極化,樂觀看法是 AI 帶來正面效益,例如促進創新及發展,悲觀看法則擔心 AI 不受控制、對就業及社會有所影響。《連線》雜誌第一任主編、曾擔任《全球評論》主編、出版人凱文·凱利 Kevin Kelly 他認為科技是中性的,對於現代世界的進步,是來自樂觀主義長期投入的時間複利所累積。Kevin Kelly 的話值得我們去思考。
去年首爾 AI 高峰會上針對 AI 風險與發展,採取對全球呼籲行動,積極措施 ( Proactive Measures ) 強調使用 AI 最大化社會利益的同時,AI 風險的應對也要有急迫性之動作,並鼓勵相關單位積極採取措施,以確保 AI 技術的安全和倫理發展 ; 增加多元性 ( Inclusive Efforts ) 強調 AI 發展須多元的重要性,以確保 AI 的利益,廣泛被所有人共享,並保護弱勢群體避免受潛在的危害。