人工智能大模型的安全风险及防护措施探讨
DOI: http://dx.doi.org/10.12349/iser.v6i11.8106
Article ID: 8106
摘要
自然语言处理、计算机视觉以及自动决策等诸多领域,人工智能大模型身为新一代智能系统的核心驱动力在其中发挥出重要价值。然而在广泛应用进程里,人工智能大模型仍面临着复杂且多元化的安全风险,它们在威胁模型的稳定性与可控性的同时,还会引发治理困境与社会信任危机。本文为应对上述挑战,先就人工智能大模型所面临安全风险展开系统剖析,随后结合研究及实践情况下提出相对应的科学可行防护措施,希望能够为推动我国人工智能大模型更好地应用及发展提供一定帮助。
关键词
人工智能大模型;安全风险;防护措施;探讨
全文:
PDF参考
吕延辉,张博,高彦恺.基于人工智能安全治理框架的大模型系统安全防护研究[J].中国信息安全, 2024(10):38-41.
蔡佳,黄璇,童国炜,等.人工智能大模型安全现状研究[J].海峡科技与产业, 2025, 38(1):53-57.
史锋,张永晋,瞿崇晓,等.ChatGPT类大模型技术的安全风险与应对措施研究[C]//第十二届中国指挥控制大会.中电海康集团有限公司;中国电子科技集团公司第五十二研究所, 2024.
李立.基于人工智能的网络安全风险评估模型研究[J].黑龙江科技信息, 2021, 000(007):103-104.
邱惠君,张瑶.大模型发展对人工智能安全风险治理的挑战和应对分析[J].工业信息安全, 2023(2):65-72.
Refbacks
- 当前没有refback。
版权所有(c)2025 江 均勇

此作品已接受知识共享署名-非商业性使用 4.0国际许可协议的许可。