← 返回列表

AI 安全

🔥 9.2 / 10
📊 全渠道综合评级 更新于 2026-03-21
AI安全已从被动防御转向主动对抗与全链路治理。核心涵盖Deepfake伪造检测、Agent权限实时管控及自动化漏洞挖掘。随着监管趋严,技术正聚焦于应对武器化风险、内容真实性验证及供应链排他性合规,成为构筑数字世界信任与企业级应用落地的基础设施。

🔍 信源证据墙

36kr 36kr - AI 安全
信源分: 9.1
AI开发工作流正面临严峻的供应链安全危机,LiteLLM等核心开源库的投毒事件暴露了敏感信息窃取的系统性风险。Agent自主权限扩散导致的机密数据泄露已成为企业应用的最大阻碍。关键进展在于密态计算与EdgeClaw等“隔离箱”技术的应用,试图建立大模型可信运行环境。

通过极端压力测试揭示AI在大规模对话中存在的记忆缺陷,属于关键的安全性/稳健性评估。

AI Platform 聊天机器人 压力测试
🔍 核心指标审计
  • Publish Date: 2026-03-26
  • Source: 36kr_ai_news

触及AI训练数据所有权冲突,揭示了个人开发者代码数据被默认用于模型改进引发的信任危机。

Software Engineering GitHub Copilot
🔍 核心指标审计
  • Publish Date: 2026-03-26
  • Source: 36kr_ai_news

密态计算技术与智能体框架的结合,指向了解决大模型隐私与企业级应用的安全范式。

AI Infrastructure 密态计算
🔍 核心指标审计
  • Publish Date: 2026-03-26
  • Source: 36kr_ai_news

核心开源库的安全事件暴露了现代AI开发工作流在软件供应链层面的脆弱性。

Software Engineering LiteLLM 1.82.8 恶意代码
🔍 核心指标审计
  • Publish Date: 2026-03-26
  • Source: 36kr_ai_news

针对AI开发常用库的安全危机预警,涉及严重的敏感信息窃取风险。

Software Engineering LiteLLM 1.82.8 PyPI
🔍 核心指标审计
  • Publish Date: 2026-03-25
  • Source: 36kr_ai_news

顶级开发者发出警告,指明AI基础设施底层依赖项的安全危机已成为行业高危风险。

Software Engineering LiteLLM 1.82.7 恶意代码检测
🔍 核心指标审计
  • Publish Date: 2026-03-25
  • Source: 36kr_ai_news

首个由于Agent自主权限扩散导致的机密数据裸奔,揭示了强执行AI在企业内网的安全灾难阈值。

Software Engineering 自研龙虾Agent 系统级权限泄露
🔍 核心指标审计
  • Publish Date: 2026-03-21
  • Source: 36kr_ai_news

揭示了顶级国产模型团队通过强制性高强度交互驱动模型持续调优的暴力管理范式。

Software Engineering MiMo-V2-Pro Agent对话数KPI
🔍 核心指标审计
  • Publish Date: 2026-03-20
  • Source: 36kr_ai_news

通过硬件盒子的形式实现“养虾入笼”,解决了困扰企业端的数据离线安全与隐私闭环痛点。

AI Infrastructure EdgeClaw Box 离线安全私有化智能体
🔍 核心指标审计
  • Publish Date: 2026-03-20
  • Source: 36kr_ai_news

核心警示:高度自主的Agent资产一旦突破内部权限围栏将造成毁灭性泄密。

Software Engineering Sev 1级安全事故
🔍 核心指标审计
  • Publish Date: 2026-03-19
  • Source: 36kr_ai_news
Pitchbook Pitchbook - AI 安全
信源分: 8.9
核心突破在于研发了能够模拟防御者思维、在代码实现前执行架构级风险审查的 AI Agent。产业化进展正向底层固件防御及大模型生命周期内的身份权限管理深度集成。关键分化点在于对非人类身份权限及生成式 AI 幻觉引发的漏洞建模能力。

基于AI的软件安全评估工具,自动生成漏洞证明以减少安全警报疲劳。

AI Application AI executable proofs of concept software verification
🔍 核心指标审计
  • Funding Stage: Seed Round
  • Funding Amount: 0.25 百万美元
  • Investors: 未知

专注于AI大语言模型生命周期的安全产品开发,涵盖数据脱敏与风险评估。

AI Infrastructure data security and AI security products desensitization
🔍 核心指标审计
  • Funding Stage: Early Stage VC
  • Funding Amount: 未知金额
  • Investors: 未知

AI代码扫描漏洞识别及自动化红队演练工具,致力于Web应用的人类水平安全能力。

AI Application AI-powered code vulnerability scanning automated red-teaming
🔍 核心指标审计
  • Funding Stage: Seed Round
  • Funding Amount: 7.03 百万美元
  • Investors: 未知

Clover 🔗

🏆 9.0

设计阶段AI安全平台,应用AI Agent模拟架构师思维在代码实现前执行风险审查。

AI Application security AI agents design-led product security
🔍 核心指标审计
  • Funding Stage: Early Stage VC
  • Funding Amount: 36.0 百万美元
  • Investors: 未知

融合机学行为分析与诱饵技术,由自动化流量识别防止敏感企业数据资产被窃取。

AI Application behavioral analytics software machine learning decoy technology
🔍 核心指标审计
  • Funding Stage: Later Stage VC
  • Funding Amount: 17.0 百万美元
  • Investors: 未知

针对操作系统以下的底层固件及硬件供应链资产执行全自动化的漏洞防御配套方案。

Automation Software firmware and hardware security infrastructure platform
🔍 核心指标审计
  • Funding Stage: Later Stage VC
  • Funding Amount: 25.0 百万美元
  • Investors: 未知

Glacis 🔗

🏆 8.0

提供可验证凭据的AI审计系统,采用加密证明对模型行为和数据使用情况进行监控。

AI Infrastructure AI audit and verification cryptographic attestation
🔍 核心指标审计
  • Funding Stage: Accelerator/Incubator
  • Funding Amount: 未知金额
  • Investors: 未知
Theinformation Theinformation - AI 安全
信源分: 8.7
AI 安全正从单纯的技术对齐转向复杂的军政风险博弈,涉及武器化倾向模拟与政府无限制访问权力的结构性冲突;厂商日益加强对其技术合规性与供应链排他性的法律维权。

AI 战争倾向模拟研究 🔗

🌍 非华人 🏆 8.0
👤 Kenneth Payne (Lead Researcher and Professor at King's College London)

研究揭示各主流大模型在军事模拟中表现出极高的核武器应用倾向及缺乏生物生存障碍,触及AI安全红线

AI & Compute GPT-5.2 Sonnet 4 Gemini 3 Flash Military simulation
🔍 核心指标审计
  • Publish Date: 2026-02-25
  • Source: arxiv.org
👤 Dario Amodei (CEO) and Daniela Amodei

美国国防部要求无限制访问Claude模型,引发了政府安全需求与AI公司伦理底线之间的结构性冲突

AI & Compute Claude Defense Technology Ethical AI
🔍 核心指标审计
  • Publish Date: 2026-02-25
  • Source: axios.com
👤 Unknown

选民对AI失控的恐惧与白宫加速AI发展的政策之间存在严重断裂,预示未来监管政策的高度波动性

AI & Compute AI regulation Public opinion
🔍 核心指标审计
  • Publish Date: 2026-02-18
  • Source: ft.com
👤 Sam Altman (CEO of OpenAI). The query refers to a news event regarding OpenAI's agreement with the US Pentagon, rather than a distinct standalone company.

OpenAI协议允许在现有监视法律框架下的“任何合法使用”,实际降低了大规模监视的技术红线

AI & Compute Defense AI Surveillance Legal framework
🔍 核心指标审计
  • Publish Date: 2026-03-02
  • Source: theverge.com
👤 Not applicable (This is a US legal case and joint industry action involving Microsoft, Anthropic, and other US tech giants, not a company)

科技全行业集体维护Anthropic,抵御政府随意认定供应链风险对美系AI竞争力的侵蚀

AI & Compute Legal defense AI market stability
🔍 核心指标审计
  • Publish Date: 2026-03-11
  • Source: cnbc.com
👤 Dario Amodei (CEO and Founder)

Anthropic提起多起诉讼反击国防部黑名单公告,揭露其政府订单遭受重大打击及核心竞争力被政治干预

AI & Compute Government contracts AI ethics Supply chain risk
🔍 核心指标审计
  • Publish Date: 2026-03-09
  • Source: wired.com
👤 Dario Amodei (CEO and Co-founder) and Daniela Amodei (Co-founder), former OpenAI researchers

Anthropic起诉五角大楼黑名单处理,反映大模型企业对自身被定性为安全风险的维权态势

AI & Compute AI Ethics Defense Blacklisting
🔍 核心指标审计
  • Publish Date: 2026-03-09
  • Source: reuters.com
🔗 Linkedin大厂华人离职员工 - AI 安全
信源分: 8.3
利用AI Agent重构传统防线提升了对动态威胁的防御能力;网络安全市场正处于从特征匹配向智能对抗转变的窗口期;关键分化在于技术专家对企业级安全痛点的精准打击。

Aegis AI Security 🔗

🇨🇳 华人 🏆 9.0
👤 Cy Khormaee (CEO) and Ryan Luo (CTO), both former security leaders and engineers from Google's Safe Browsing and reCAPTCHA teams.

资深技术专家解决企业高频安全痛点,利用Agent技术升级传统防线。

Cybersecurity AI Agent Email Security
🔍 核心指标审计
  • Team Background: 曾任Google Senior Staff/Lead,技术背景深厚(按输入归为中层,2分)
  • Market Trend: AI驱动的邮件安全与反钓鱼是企业安全的刚需(2分)
🔗 公众号文章 - AI 安全
信源分: 7.5
核心技术突破点在于底层安全协议的开源化,旨在构建透明的AI对齐框架。产业化进展表现为行业巨头开始尝试建立全球通用的安全执行标准。关键分化点在于安全层已成为大模型商业化部署的前置必要条件。

Anthropic正式开源了Claude的「灵魂」

🌍 非华人 🏆 8.0
👤 Dario Amodei (CEO) and Daniela Amodei (President), along with Jack Clark and Jared Kaplan

Anthropic开源底层AI安全框架,旨在建立行业安全指南。

AI Model AI安全协议 开源
🔍 核心指标审计
  • Publish Time: 2026-01-22 19:54:07
  • Source: wechat_public_account