被“投毒”的AI应用在现实生活中险些毒死十几人,对AI应用的迷信和过度依赖正带来巨大的健康和网络安全风险。
限制美国开源人工智能参与全球市场竞争将对美国家安全产生灾难性影响,不仅破坏美国科技创新潜力,还有可能将全球人工智能市场拱手让给美国的对手。
目前联邦机构主要在以下五大方面,采取共计100多项行动以实现该行政命令。
此备忘录延续了2023年10月30日第14110号行政命令第4.8条中的指令(安全、可靠和可信的人工智能开发与使用),补充了此前白宫管理和预算办公室针对非国家安全任务发布的指南...
来自人大&港科大的研究人员提出安全概念激活向量(SCAV)框架,通过精确解读大模型的安全机制来指导攻击。
这一事件表明,AI在控制其生成的内容方面依然存在重大漏洞。
不得不知的16个重要问答。
该框架的发布旨在确保AI在美国关键基础设施中的安全可靠部署,同时保护公民权利和自由,推进AI安全研究。
AI工作组成员表示,接下来的人工智能立法重点是让人类处于人工智能技术及其应用的中心,同时保持适当的监管方式。
积极推进卫生健康行业“人工智能+”应用创新发展。
报告为管理关键基础设施中人工智能的使用风险提供了技术缓解措施和政策建议。
以增强加拿大应对 AI 安全风险的能力,进一步将该国定位为安全和负责任地开发和采用 AI 技术的领导者。
二者在风险类别的设定和分类方法上存在显著差异,这对组织制定合规策略产生了重大影响。
研究人员开发了一种算法,可将恶意提示词转换为一组隐藏指令,进而要求大模型将用户的对话敏感信息发送给攻击者;该研究测试法国公司Mistral AI的LeChat和中国公司智谱的Ch...
随着特朗普将成为美国第47任美国总统、共和党控制参议院,美国的人工智能监管政策将会迎来巨大的变化。
共发现6个漏洞。
OpenAI 安全团队发布了一项新的研究成果,发现基于规则的奖励可用于提升语言模型的安全性。
该法案一经提出便备受争议,此次法案被否决也反映出美国在AI立法中强调创新发展优先的一贯倾向。
识别需要政策干预的领域、支持治理决策、增强治理选项。
通过知识图谱的结构化格式和对事实信息的精确封装来为大语言模型提供现实支撑。
微信公众号