潘多拉魔盒:无限制大模型如何威胁加密行业安全?(2) / BTC123 | 区块链信息行情第一站

潘多拉魔盒:无限制大模型如何威胁加密行业安全?(2)

06-06 , 08:22 分享新闻

潘多拉魔盒:无限制大模型如何威胁加密行业安全?

DarkBERT:暗网内容的双刃剑

DarkBERT 是由韩国科学技术院(KAIST) 的研究人员与 S2W Inc. 合作开发的语言模型,专门在暗网数据(如论坛、黑市、泄露资料)上进行预训练,初衷是为网络安全研究人员和执法机构更好地理解暗网生态、追踪非法活动、识别潜在威胁和获取威胁情报。

尽管 DarkBERT 的设计初衷是正向的,但其掌握的关于暗网上的数据、攻击手段、非法交易策略等敏感内容,如果被恶意行为者获取或利用类似技术训练出无限制大模型,后果不堪设想。其在加密场景中的潜在滥用方式包括:

  • 实施精准诈骗:收集加密用户与项目团队的信息,用于社工欺诈。

  • 模仿犯罪手法:复刻暗网中成熟的盗币与洗钱策略。

FraudGPT:网络欺诈的瑞士军刀

FraudGPT 宣称是 WormGPT 的升级版,功能更全面,主要在暗网与黑客论坛中销售,月费从 200 美元至 1,700 美元不等。其在加密场景中的典型滥用方式包括:

  • 伪造加密项目:生成以假乱真的白皮书、官网、路线图与营销文案,用于实施虚假 ICO/IDO。

  • 批量生成钓鱼页面:快速创建模仿知名加密货币交易所登录页面或钱包连接界面。

  • 社交媒体水军活动:大规模制造虚假评论与宣传,助推诈骗代币或抹黑竞争项目。

  • 社会工程攻击:该聊天机器人可以模仿人类对话,与不知情的用户建立信任,诱使他们无意中泄露敏感信息或执行有害操作。

GhostGPT:不受道德约束的 AI 助手

GhostGPT 是一个被明确定位为无道德限制的 AI 聊天机器人,其在加密场景中的典型滥用方式包括:

  • 高级钓鱼攻击:生成高度仿真的钓鱼邮件,冒充主流交易所发布虚假 KYC 验证请求、安全警报或账户冻结通知。

  • 智能合约恶意代码生成:无需编程基础,攻击者便可借助 GhostGPT 快速生成包含隐藏后门或欺诈逻辑的智能合约,用于 Rug Pull 骗局或攻击 DeFi 协议。

  • 多态加密货币窃取器:生成具备持续变形能力的恶意软件,用于窃取钱包文件、私钥和助记词。其多态特性使传统基于签名的安全软件难以检测。

  • 社会工程学攻击:结合 AI 生成的话术脚本,攻击者可在 Discord、Telegram 等平台部署机器人,诱导用户参与虚假 NFT 铸造、空投或投资项目。

  • 深度伪造诈骗:配合其他 AI 工具,GhostGPT 可用于生成伪造加密项目创始人、投资人或交易所高管的语音,实施电话诈骗或商业邮件入侵(BEC) 攻击。