AI軟體與服務可能產生之風險疑慮
近年來AI軟體與服務快速發展,影響遍及全球產官學研各界。自ChatGPT於2022年底發布後,更掀起全球熱潮,且被視為人工智慧之一項重大突破。
運用生成式AI軟體與服務協助執行業務或提供服務,有助於提升工作效率與創意發想。
但往往會不小心就涉及隱私洩漏、侵犯智慧財產權或產生不實資訊等風險。
隱私洩漏
蒐集使用者輸入內容或擷取網頁文字做為訓練資料
侵害智慧財產權、人權或商業機密
AI軟體與服務大量蒐集訓練所產出之結果
不存在之資訊
受限於訓練資料之品質與數量,會生成真偽資訊
如何防範?
先審平台與契約
查公司背景與資安認證;確認隱私政策、是否拿你的資料做訓練保留/刪除機制與跨境;簽 DPA/NDA;只用核准的平台/外掛/API。
使用三原則
資料最小化與去識別;不輸入個資/帳密/未公開公務資訊/研究機密未驗證的生成內容不得對外。
技術控管到位
上傳掃描與瀏覽器/端點隔離;輸入/輸出安全閘(PII/敏感詞)金鑰集中管理、API 白名單、日誌監控。
可疑事件三步驟
隔離與保全證據 → 通報窗口並撤銷金鑰/重設密碼→ 稽核日誌、通知受影響者與修補。