找回密码
 立即注册
科技快报网 首页 科技快报 业界资讯 查看内容
邦彦云PC赋能AI标注新变革:安全、效率、协同三重突破引领行业升级央视《匠心中国》聚焦易视界:十八载坚守诠释视保匠心合合信息Chaterm入选沙利文《2025年中国生成式AI行业最佳应用实践》灵犀智能CES 2026参展纪实 登顶AI陪伴产品榜单星空源储首次亮相 CES 探索AI驱动的全场景智慧能源新生态新年有小艺,“艺”马当先接鸿运全球AI新品京东首发 三天超长CES探展直播让3C数码新品触手可及腾讯音乐(TME)年度盛典圆满收官:用数据说话,全面呈现华语乐坛多元生态香港空运部成立运营,全球化网络布局再落关键一子成者AI会议机器人等系列新品打响“AI会议时代”系统战从科技创新至产业创新:从光谱技术的全景比较,看“中国原创”的力量锚定欧美增长极,未岚大陆以全场景方案展现中国智造品牌顶尖科技实力成年人直播打赏有无“后悔药”?央视报道法院判例:驳回退款诉求P300全球首发:普宙科技在CES发布全新“城市低空智能体”东软集团获得华为“钻石经销商”认证德适生物将赴港上市,染色体核型分析领域市占率第一歌尔亮相CES 2026:声光电技术革新助力智能交互体验升级TCL实业CES 2026:SQD-Mini LED显示技术定义“视”界新高度,全场景AI“智”领未来做时代的主角·戈峻2026跨年夜话广州开讲可以科技携全球首款桌面AI伙伴DeskMate登陆2026 CES 开启“人机共生”新范式

知道创宇率先推出人工智能大语言模型(LLM)防护方案!

2024-03-13 19:43:56

LLM是Large Language Model的简称,中文名是大语言模型,是一种基于海量文本数据训练的深度学习模型(人工智能模型)。

LLM发展至今,其参数量已经达到万亿规模。

LLM应用场景?

LLM常见应用及部署场景:

1、私有LLM

私有LLM应用场景一般是私有化部署,给公司内部员工使用,聚焦垂直领域,训练数据涵盖公司特有数据,比如:辅助工程师编程的LLM应用。

2、公共LLM

公共LLM广泛应用于各领域,采用SaaS形态,广大用户在互联网共同使用,可用于辅助写文章、作画、制作视频等,这类LLM应用有:国外的OpenAI ChatGPT、国内的百度文心一言等。

3、独立LLM

这里指的是独立售卖的LLM产品,无须部署,就像手机一样买来就可以用,比如:聊天机器人。

国内、外LLM应用场景仍在积极探索中,你更看好哪种应用场景呢?

LLM安全威胁有哪些?

LLM应用也属于Web应用范畴,采用了HTTP/HTTPS协议,常见的Web应用攻击也会威胁到LLM应用,如:XSS、SQL注入攻击等。

LLM应用除了受到常见Web应用攻击的威胁,还会受到针对LLM应用场景的新型攻击的威胁,结合创宇安全智脑威胁情报,安全专家分析后发现,针对LLM应用最常见的攻击是:提示词攻击、API攻击、数据投毒攻击、个人可识别信息泄露攻击、模型拒绝服务攻击

1、提示词攻击

这种攻击涉及策略性地设计和操纵输入提示,以影响LLM的输出。这包括两种主要的策略:

1)提示注入:通过精心制作的提示操作模型,绕过过滤器,导致模型产生非预期的后果,如数据泄露、未经授权的访问、仇恨言论产生、假新闻产生等。

2)攻击、目标劫持和提示泄漏:这些方法通过操纵原始提示的目标,误导模型生成特定的目标短语或重现原提示的部分或全部,违背用户指令。

2、API攻击

目前从市场来看,由于人工智能技术的复杂性和不确定性,开发、测试和部署人工智能模型通常需要使用很多API,并将它们组合成复杂的系统。API的安全性和稳定性,对于保证整个人工智能系统的稳定运行至关重要。如果API发生问题,将会影响整个人工智能系统,导致系统崩溃或无法正常工作。

在使用人工智能系统时,很多应用场景都需要通过这些API处理复杂计算、获取用户敏感信息、输出模型结果,所以跟其他Web应用类似,LLM的API通常也被黑客作为重点攻击对象。如果这些API的安全性得不到有效保障,就会影响人工智能应用的可靠性、稳定性,而由于LLM在实时进化、输出结果的不唯一性等特点,API攻击带来的威胁会被放大。

3、数据投毒攻击

数据投毒攻击(Data Poisoning Attack)是一种针对大型语言模型(LLM)的攻击方式。攻击者通过在训练数据中添加有毒样本,故意扰乱语言模型的决策过程,从而产生错误的输出。常见的攻击手段包括直接向训练数据中注入不安全代码,以及通过触发词植入后门,数据投毒攻击常跟后门攻击组合使用。

4、个人可识别信息泄露攻击

个人可识别信息泄露攻击(PII Leakage Attack)是一种针对大型语言模型(LLM)的隐私攻击方式。攻击者通过模型输出获取训练数据中的个人可识别信息,如:姓名、联系方式等敏感信息。训练数据来源复杂,LLM训练数据来源复杂,可能包含大量PII,模型可能记忆并泄露这些PII。

攻击手段:攻击手段包括直接询问模型获取PII、利用模型记忆能力恢复PII、以及利用模型生成包含PII的内容。

5、模型拒绝服务攻击

模型拒绝服务攻击,指攻击者对大型语言模型(LLM)进行资源密集型操作,导致模型服务降级、不可用,或资源成本大大提升。由于LLM的资源密集型、用户输入的不可预测性、模型输出的不唯一性等特征,跟非LLM应用相比,LLM应用的该漏洞攻击会被放大。

OWASP 也于2023年10月发布了《OWASP 大语言模型人工智能应用Top 10 安全威胁》,指出了针对LLM应用的Top 10安全威胁,这跟我们的分析结果是高度吻合的。

备注:

《OWASP 大语言模型人工智能应用Top 10 安全威胁》原文中文版链接:

https://www.llmtop10.com/assets/downloads/OWASP-Top-10-for-LLM-Applications-v1_1_Chinese.pdf

OWASP:指开放式Web应用程序安全项目(Open Web Application Security Project),是一个非营利组织。

知道创宇推出LLM应用防护方案

结合近期LLM应用的攻击态势,我们基于云防御推出了LLM应用防护方案,涵盖LLMDDoS清洗、应用安全、API安全、内容安全等防护服务

1、LLM DDoS清洗

采用抗D保CC防火墙、IP限制、APP专用防CC策略等功能,对IP的访问频率、流量进行限制,对APP端的伪造CC请求进行清洗,阻挡“模型拒绝服务攻击”。

2、LLM应用安全

采用创宇盾网站防火墙、协同防御、精准访问控制等功能,拦截XSS、SQL注入等常见Web应用攻击,并对包含恶意输入内容的“提示词攻击”进行拦截。

3、LLM API安全

采用创宇盾智能限速、屏蔽时间、精准访问控制等功能,保护LLM API免受恶意攻击。API安全作为AI生态链的关键环节,在保障用户数据安全、防止黑客攻击、保护知识产权等方面发挥着至关重要的作用。只有不断加强API安全的保障,才能确保整个AI生态链的稳定运行和长期发展。

4、LLM 内容安全

采用净网盾、隐私盾,对LLM应用源站因遭受恶意攻击,返回的个人敏感信息、仇恨言论、假新闻等内容进行过滤,防止这些敏感数据泄露到互联网,被人非法利用。

如果您对知道创宇的LLM应用防护方案感兴趣,欢迎通过公众号进行咨询。

  免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

发布者:sophia

相关阅读

微信公众号
意见反馈 科技快报网微信公众号