ChatGPT会编写恶意软件吗

我也没有要求它回答标题中的问题——我会的。但我想这正是 ChatGPT 可能会说的。幸运的是,还有一些语法错误可以证明我不是机器人。但这正是 ChatGPT 可能为了看起来真实而做的事情。

当前的机器人潮人技术是一种奇特的自动回复器,足以生成家庭作业答案、研究论文、法律回应、医学诊断,以及许多其他通过“嗅觉测试”的东西,当它们被当作是人类演员。但它是否会为我们每天看到和处理的数十万个恶意软件样本添加有意义的内容,或者是一个容易被发现的假冒软件?

在技​​术专家多年来一直渴望的机器对机器决斗中,ChatGPT 似乎有点“太好了”,不至于被视为可能会干扰对方机器的有力竞争者。由于攻击者和防御者都使用最新的机器学习 (ML) 模型,所以这必须发生。

除此之外,要构建良好的反恶意软件机制,不仅仅是机器人对机器人。始终需要一些人为干预:我们多年前就确定了这一点,这让进入营销战的仅 ML 供应商感到懊恼——同时坚持通过将其仅 ML 产品称为使用“AI”来混淆水域.

虽然 ML 模型已被用于粗略的前端分类到更复杂的分析,但它们还不能成为一个大红色的“杀死恶意软件”按钮。恶意软件并没有那么简单。

但可以肯定的是,我联系了一些 ESET 自己的 ML 专家并询问:

问:ChatGPT 生成的恶意软件有多好,或者有可能吗?

答:虽然 ChatGPT 非常擅长代码建议、生成代码示例和代码片段、调试和优化代码,甚至自动化文档,但我们离“完全由 AI 生成的恶意软件”还差得很远。

问:更高级的功能如何?

A. 我们不知道它在混淆方面有多好。一些示例与 Python 等脚本语言有关。但我们看到 ChatGPT 把连接到 IDA Pro 的反汇编代码的意思“反转”了,这很有趣。总而言之,它可能是协助程序员的便捷工具,也许这是构建功能更全的恶意软件的第一步,但现在还不是。

问:现在有多好?

答:ChatGPT 非常令人印象深刻,考虑到它是一个大型语言模型,它的功能甚至让此类模型的创建者感到惊讶。然而,目前它非常肤浅,会出错,创建更接近幻觉的答案(即捏造的答案),并且对于任何严肃的事情都不是真正可靠的。但它似乎正在迅速取得进展,从成群结队的技术人员将脚趾伸入水中来判断。

问:它现在能做什么——平台的“唾手可得的果实”是什么?

答:目前,我们看到三个可能被恶意采纳和使用的领域:

如果您认为网络钓鱼在过去看起来很有说服力,请稍等。从探索更多数据源并将它们无缝融合到吐出根据内容很难检测到的特制电子邮件,成功率有望提高点击率。而且你不会因为草率的语言错误而仓促剔除它们;他们对您的母语的了解可能比您的更好。由于大量最恶劣的攻击都是从有人点击链接开始的,因此预计相关影响会扩大。

能说会道的勒索软件运营商可能很少见,但在通信中添加一点 ChatGPT 亮点可以降低攻击者在谈判期间看似合法的工作量。这也意味着更少的错误可能会让防御者深入了解操作员的真实身份和位置。

随着自然语言生成越来越多,好吧,自然的,讨厌的骗子听起来像是来自您所在的地区,并且将您的最大利益放在心上。这是信心骗局的第一个入职步骤之一:通过听起来他们是你的人来让自己听起来更自信。

如果这一切听起来像是未来的路,请不要赌它。这不会一下子全部发生,但犯罪分子会变得更好。我们将看看防守能否应对挑战。