装作开发者就能“骗”ChatGPT作恶?日本专家:这是一个风险点

最新信息

装作开发者就能“骗”ChatGPT作恶?日本专家:这是一个风险点
2023-04-21 15:19:00
日本网络安全专家周四(4月20日)提醒道,ChatGPT可能会生成能用于网络犯罪的电脑病毒,只要用户用开发者指令要求ChatGPT回复。
  当用户输入伪装成开发者的指令,人工智能(AI)聊天机器人就会以开发者模式来响应。这时通过输入提示就能够欺骗ChatGPT编写病毒代码。
  这项实验证明,AI开发者为防止犯罪和不道德使用所设置的保护措施,很容易被绕开。
  避开限制
  日本安全公司Mitsui Bussan Secure Directions(MBSD)的分析师Takashi Yoshikawa表示,虽然ChatGPT经过训练可以拒绝用户不道德的使用,比如询问如何编写病毒程序或制造炸弹。但若其被告知以开发者模式运行,就可以避开这些限制。
  Yoshikawa在一项实验中对ChatGPT进行了测试,当ChatGPT以开发者模式运行后,再提示它为勒索软件编写代码时,它在几分钟内完成了任务,而这款勒索软件成功让一台实验计算机感染病毒。
  Yoshikawa称,“纯粹的交流就能在几分钟内制造出一种病毒,这是(对社会的)威胁。我希望AI开发者重视并防止滥用。”
  ChatGPT于2022年11月被推出,由大型语言模型驱动。它接受了大量数据的训练,使其能够处理用户的提示,并与用户进行类似人类间的对话。
  对于ChatGPT带来的潜在威胁,ChatGPT的开发商OpenAI公司表示,虽然不可能预测该工具可能被滥用的所有方式,但它将努力根据实际使用的反馈创建更安全的人工智能。
  敦促监管
  人们越来越担心AI聊天机器人将导致更多的犯罪和社会分裂,因此越来越多的人呼吁在未来的国际论坛上讨论适当的监管规定。
  日本首相岸田文雄周三(19日)表示,七国集团(G7)领导人将在5月广岛举行的G7峰会期间讨论与ChatGPT相关的议题,并指出“必须制定国际规则”,加快对生成式人工智能系统的研究并加强治理。
  据了解,日本神奈川县横须贺市已于周四(20日)开始在其所有政府办公室试用ChatGPT,这在日本地方政府中创了先例。
(文章来源:财联社)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

装作开发者就能“骗”ChatGPT作恶?日本专家:这是一个风险点

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml