首页
手机版
当前位置:首页 > 文章教程 > 新闻资讯 > 不是好事:AI水军在仇恨板块难以分辨

不是好事:AI水军在仇恨板块难以分辨

2022-06-10 08:43:00 来源:天空软件网 我要评论()

用手机看

扫描二维码查看并分享给您的朋友

微软无意中了解到创建种族主义人工智能的风险,但如果你故意将智能指向一个有毒的论坛会发生什么?一个人发现了。正如Motherboard和The Verge所指出的,YouTuber Yannic Kilcher利用4chan的Politically Incorrect(/pol/)板块三年来的内容训练了一个人工智能语言模型,这个地方因其种族主义和其他形式的偏见而臭名昭著。在将该模型应用于10个机器人后,基尔彻将人工智能在板块上释放出来--毫不奇怪,它创造了一波仇恨。在24小时内,这些机器人写了15000个帖子,其中经常包括种族主义内容或与之互动。基尔彻称,这些帖子占当天/pol/帖子的10%以上。

不是好事:AI水军在仇恨板块难以分辨

该模型被命名为GPT-4chan(在OpenAI的GPT-3之后),它不仅学会了在/pol/帖子中使用的词汇,还学会了Kilcher所说的混合了 "攻击性、虚无主义、嘲弄和深度不信任 "的整体语气。视频制作者小心翼翼地躲避4chan对代理和VPN的防御,甚至使用VPN使其看起来像是来自塞舌尔的机器人帖子。

人工智能犯了一些错误,如空白帖子,但足够有说服力,许多用户花了大约两天时间才意识到不对劲。据基尔彻说,许多论坛成员只注意到了其中一个机器人,而这个模型造成了足够的戒心,以至于在基尔彻停用这些机器人的几天后,人们互相指责对方是机器人。

在与The Verge的交谈中,这位YouTuber将该实验描述为一个 "恶作剧",而不是研究。这提醒我们,训练有素的人工智能只能和它的原始材料一样好。令人担忧的是,基尔彻如何分享他的工作。虽然他避免提供机器人代码,但他与人工智能库Hugging Face分享了部分阉割过的模型版本。访问者可能会出于邪恶的目的重新创建人工智能,因此Hugging Face决定限制访问,作为预防措施。该项目存在明显的道德问题,基尔彻本人说他应该在未来专注于 "更积极的 "工作。

热门软件

  • 电脑软件
  • 手机软件
  • 手机游戏
更多>

用户评论

[!--temp.www_96kaifa_com_cy--]
返回顶部