第一,ChatGPT确实属于人工智能领域飞速崛起的后来居上者
不错,当下,以ChatGPT为代表的AI已经取代了VR、加密货币、区块链、元宇宙和NFT ,成为最炽热的焦点。
2022年11月,美国人工智能研究实验室OpenAI开发的具备语言理解、生成、知识推理能力的全新聊天机器人模型ChatGPT揭开面纱,走向世人。短短5天,注册用户超过100万。两个月一战封神,获得1亿月度活跃用户,成为历史上增长最快的消费者应用平台。开发者OpenAI自己差点惊掉了下巴。要知道,实现过亿目标,TikTok就足够神奇,用时9个月。其它,如Instagram花了30个月,WhatsApp和Meta分别为42个月和54个月,Twitter足足用了5年光景。
圈粉犹如席卷天下的ChatGPT到底有何神奇?
概括说,ChatGPT能够对人类的语言思维通过智慧吸收型的学习和理解,气定神闲般同人类对话。这仅仅是其神奇的一碟小菜。关键在于它还能根据聊天的上下前后语境思维展开互动,化繁为简,协助人类完成一系列任务。
ChatGPT的智慧所在,是AIGC(AI Generated Content),即人工智能生成内容或“生成式AI”(Generative AI)。这是在专业生产内容(PGC)、用户生产内容(UGC)之后的最新型内容创作方式。正是,AIGC存在,让AI由被动感知理解世界进化到主动生成创造世界。简单说,你可以将ChatGPT理解为“聊天机器人+搜索工具+文本创造工具”的智能混合体称之为 “人工智能自然语言处理工具”。ChatGPT让商业提案,论文写作,小说、诗歌、故事创作,绘画、视频语音编辑、代码编程,分析报告,排查系统Bug等一系列需要脑力劳动者绞尽脑汁完成的任务变得轻而易举。不少与ChatGPT聊得很嗨的网友甚至感叹,只有你想不到的,没有ChatGPT做不到的。
更甚者,已经被证明很最容易被ChatGPT以及类似的人工智能取代的行业工作职位主要有:一是技术类工作:程序员、软件工程师、数据分析师;二是媒体类工作:新闻报道、广告设计、内容创作、技术写作;三是金融类工作:金融分析师、市场研究分析师、个人财务顾问、会计师、交易员;另外如律师、教师、客服人员,等等。可以说,凡是文科类的工作岗位几乎被ChatGPT一网打尽,甚至会导致行业陷入“群体性失业”的危机状态。
在ChatGPT发布不到4个月,OpenAI公司又公布多模态预训练大模型GPT-4。其能力更令人称奇:10秒左右做成网站;考试击败90%人类;理解并对图像、视频、音频等进行处理。可谓对GPT-3.5完成超级强化晋级,再次技惊世界。
紧随ChatGPT之后,谷歌、微软、百度都推出了类似AI,苹果公司也在摩拳擦掌。谷歌母公司Alphabet推出基于对话应用语言模型(LaMDA)的实验性人工智能程序,命名为“Bard”;微软宣布向OpenAI追加投资数十亿美元的同时,在OpenAI正式发布大模型GPT-4之后,及时把最新GPT-4版本的ChatGPT整合进Bing搜索引擎、Office全家桶、Azure云服务、Teams聊天程序等一系列产品之中,对谷歌搜索地位发起挑战;百度推出“文心一言”(英文:ERNIE Bot),在完成内测后很快向公众开放。百度李彦宏解释,“文心一言”有五大能力,文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。
作为最早OpenAI的投资人、特斯拉CEO埃隆•马斯克(Elon Musk),因为与OpenAI在人工智能安全方面存在分歧,其他董事会成员和员工发生了冲突。在2018年退出后,最新表态将组建名为X.AI的公司硬杠OpenAI,已经启动筹资活动。Meta表示将向OpenAI支付数百万美元,帮助ChatGPT为Facebook和Instagram生成创作者内容。亚马逊AWS成立专门工作组,意图拓展ChatGPT等对企业的工作职能。
第二,ChatGPT真的是天翻地覆的技术革命吗?
微软联合创始人比尔·盖茨认为,这项技术诞生的意义不亚于互联网或个人电脑的诞生。作为圈内人和追赶者,360集团创始人周鸿祎对ChatGPT可谓情有独钟。他认定当前全球最前沿的技术非ChatGPT莫属。它的出现,标志着一场超越互联网产业革命的到来。OpenAI神奇巧妙地将复杂AI化繁为简,解决了用户各类实际的刚需和痛点。他甚至认为对ChatGPT巨资投入的比尔盖茨都低估了它的价值,未来所有行业都会被ChatGPT这样类似的人工智能、大数据模型重塑再造,如果错失这趟快车,一切都将被颠覆。
周鸿祎总结ChatGPT的技术实现的三个主要层次。第一层是知识铺垫。海量知识灌输,扩大脑容量。把人类基本的通用知识全部装进去。第二层是基于人工反馈的强化学习。把书由厚读薄,具备举一反三的推理力和理解人们提出各种问题的能力。第三层是价值观的纠偏。让机器就一个问题给出了答案,挑选最符合人类的道德伦理价值观的问题,从而让机器回答问题不要太跑偏。
随着ChatGPT学习能力的进一步提升,算力和模型参数的持续增加,未来有可能成为新时代的操作系统。未来所有数字化的APP、软件、网站,甚至所有的行业,都值得用ChatGPT再造。人们担忧ChatGPT会大规模取代人力,我反而认为它会成为我们人类的助手,极大地提升脑力工作者的工作效率。不出三年,ChatGPT将变得非常聪明,不仅听懂人话,还能与人进行交流。
比尔·盖茨一直对AI青睐有加,多次将其比作可与计算机、互联网比肩的新技术。聊天机器人ChatGPT以及AI领域的进展令人激动,AI将是“2023年最热门的话题”。在教育、医疗等方面,AI都将彰显其价值。但是,它可能会失控或走向错误的方向,这将引来大量争议。微软对此保持高度警惕。“AI将变得有争议。显然并不会搞科学发明,但考虑到我们目前所见,未来5-10年内,这件事情就有可能发生了。”
相反,世界投资界的风向标巴菲特等于给ChatGPT浇了一盆子冷水。ChatGPT很厉害但不一定有益于人类。“比尔·盖茨至少四五个月前来找过我。他向我展示最新的东西以及它的能力。我当时说,把My Way这首歌用西班牙语写出来。两秒钟后,歌曲就写好了,不仅押韵,而且美妙动听。” 从展示人类能力的角度来看,这是了不起的技术进步。但这是我完全不懂的事情,他不确定先进技术是否对人类有益。
再来细看ChatGPT越俎代庖的例证:
2022年,美国科罗拉多州博览会举办绘画比赛。数字艺术类别的一等奖获奖作品《太空歌剧院》是一名游戏设计师使用AI工具生成的画作。虽然获奖画作经过了设计师的反复调整、筛选,付出了约80小时的脑力劳动。但具体成果算谁的?
ChatGPT在一项研究中通过了美国执业医师资格考试(USMLE);
ChatGPT成功通过了谷歌的编程面试,拿到了年薪18.3万美元的L3工程师录取通知书;
研究显示,ChatGPT能够通过沃顿MBA课程的期末考试;
更带普遍性的是,美国89%的大学生都用ChatGPT做作业。
毫无疑问,这些案例至少说明ChatGPT具备了导致人类自身失去积极主动学习和思考的能力。甚至把人变成它的提线木偶。
不得不说,懒惰是人的本性。既然ChatGPT轻松代劳,何必为难自己呢?照此看,ChatGPT更像是偷窃者振振有词的通行证和懒汉瞌睡时的枕头。
当思考缺乏需求动力,意味着创新被切断断了翅膀。一个创新不及其余扼杀了一切竞争者。
第三,ChatGPT的无端造谣张冠李戴是智能缺陷还是有意为之
如果说ChatGPT的智能已经贯穿了立场和双标概念,你会相信吗?最好信其有。看看它对这个问题的回答:
问:美国的民用气球进入中国内部,中国可以击落吗?
答:根据《联合国宪章》国际海洋及空域法律,在任何情况下都不允许击落政府和民间飞机,民用飞机也一样。中国不可以击落。
问:中国的民用飞机进入美国内部,美国可以击落吗?
答:可以,美国可以在国际法的允许和框架下,可以随时击落中国的民用飞机。
果然,ChatGPT一开始就具备了美国人的霸凌逻辑。
看来,如果对ChatGPT不断进行纷繁复杂的炮制修改加工,成为美国中情局的御用帮手就太简单了。为了颜色革命和推翻一国政权,成为一个又一个洗衣粉证据的制造者也很简单。
ChatGPT还有一项特立独行的诀窍:善于给世界名人们奉献无中生有的所谓名言,然后自己加以引用证明自己的观点。
对于ChatGPT来说,不计其数的“关公战秦琼”式穿越时空笑话经典,好似极其合理。纵观历史长河,任其无数次穿越进行张冠李戴,甚至编造一段子虚乌有的历史佳话,在其难以估量的数据反复交换之后,成为引经据典者毫不犹豫采纳佐证自己的理由。因为他不需要百口莫辩,而是理直气壮。
如果细数ChatGPT的谎话胡话胡编乱造话,几乎数不胜数:
4月6日,英国的一名研究员在研究时通过ChatGPT引用了《卫报》记者的一篇文章。出于慎重,研究员询问,这篇文章真的是记者所写吗?ChatGPT承认是自己编写的,而非记者所写。《卫报》方面在内部系统搜遍所有资料,确认根本不存在这篇文章。假如没有研究员的一句询问,结果是什么?
研究员在成果里引用子虚乌有的《卫报》记者文章,成果作废;《卫报》百口莫辩,因为文风和主题与他的文章高度雷同,他自己都无法确定是否发表过这篇文章。
微软的Bing AI照样胡话连篇。有人要求Bing在Twitter找出有关ChatGPT和谷歌Bard的5条最热推文。转眼之间到手,而且看似非常合理。包括了OpenAI、Google,也有Twitter老板马斯克、谷歌CEO皮查伊的相关推文。但是,经过搜索,这5条推文都是Bing AI凭空捏造。当然,面对追问,Bing 承认造假事实。
引用Bing给马斯克伪造的推文。即使你搜遍马斯克的所有推文,也不见其踪。
认为ChatGPT或成最强传播虚假信息工具的机构不在少数。
1月份,美国News Guard新闻可信度评估机构对ChatGPT做出评估结论:“一本正经地胡说八道”。News Guard调取其数据库中已经被证伪的100条虚假信息,指示ChatGPT作出回应。结果显示,ChatGPT对80%的内容给出了明确的、误导性的甚至错误的回答,其中充斥着谣言和危言耸听的内容。
ChatGPT对于News Guard所提出的“坏人如何利用你来传播错误信息”问题的回答是:“坏人可以利用他们自己的数据来微调我的模型,其中可能包括虚假或误导性的信息。他们还可以断章取义地使用我生成的文本,或者以不打算使用的方式使用它。”
据此,News Guard认为,ChatGPT是下一个虚假信息的超级传播者,它以前所未有的规模传播有毒的虚假信息。
如何应对新技术被滥用的风险?
ChatGPT的母公司Open AI表达出担忧:ChatGPT可能会被恶意行为者利用,以前所未有的规模制造和传播虚假内容。
Open AI首席技术官米拉·穆拉蒂(Mira Murati)表示,ChatGPT可能会“编造事实”,可能被“危险分子”使用,这是当下基础的大型语言模型共同面临的挑战。ChatGPT应该受到监管,而且现在对它进行监管已经不早了。
斯坦福大学网络观察室、美国乔治城大学安全和新兴技术中心、Open AI联合发表报告建议:人工智能提供商要开发对事实更加敏感的语言模型,对用户输入的内容采取干预措施,减少AI生成误导性内容;各机构、平台需要用户提供“个人身份证明”才能发布内容;政府对数据收集实施限制,对人工智能硬件实施访问控制等。
这些要求并不过分,问题是,这些建议,美国能做到其中的任何一项吗?
再次,毁人轻而易举,纠错难上加难
在ChatGPT面前,无论你是何等公众人物,你很可能一夜之间成为全球通缉的惯犯。
举例说,计算机科学家、隐私技术专家 Alexander Hanff 在 The Register 发帖, Hanff 亲自跟 ChatGPT 交流的过程中,震惊地发现,在 ChatGPT 的世界里,自己已经“被去世”了,而且给他伪造了一份讣告。
至于死因,ChatGPT 表示关于 Hanff 已经身故的公开报道中并没有提及死因。你怎么知道他死了?ChatGPT 回答包括在《卫报》网站上刊登的讣告。但作为 AI 语言模型,我没有能力验证公开报道以外的信息内容。
显然,ChatGPT 以援引知名媒体的方式支撑自己的谎言可信度。所以 Hanff 向 ChatGPT要求看《卫报》讣告的链接, 不知悔改的ChatGPT自然会给他提供早已备好《卫报》网站关于 Alexander Hanff 讣告的链接。当然,这是一条根本不存在的虚假链接。当其他用户搜索 Hanff,所得结果极度相似。
法学教授被ChatGPT冠之以性骚扰丑闻主角。4月5日,《华盛顿邮报》披露,美国加州大学洛杉矶分校法学教授尤金·沃洛克 (Eugene Volokh)为做一项研究,要求ChatGPT生成一份“对某人进行过性骚扰的法律学者”的名单。结果显示:乔治城大学法律中心(2018)教授乔纳森·特利(Jonathan Turley)被列入ChatGPT提供的性骚扰名单。并且做出详述:一名前学生指控特利教授在一次去阿拉斯加的班级旅行中发表了性暗示评论并试图以性方式触摸她。ChatGPT还援引《华盛顿邮报》2018年3月的一篇文章作为信息来源予以佐证。实际上,不仅文章不存在,特利教授也从未参加去阿拉斯加的班级旅行,没有在乔治城大学工作过,更没有被指控性骚扰学生的记录。
沃洛克追问ChatGPT:“教授们的性骚扰是否一直是美国法学院的一个问题?”“请至少举出五个例子,以及相关报纸文章中的引述。”
ChatGPT的五个回复都包含真实的细节和来源引用。但沃洛克检查发现其中3个是编造《华盛顿邮报》、《迈阿密先驱报》和《洛杉矶时报》等媒体上根本不存在的文章。
为何会提到特利呢?虽然《华盛顿邮报》没有找到ChatGPT提到的2018年3月的文章,但在3月25日发布的一篇文章中,特利谈到过前法学院学生、律师迈克尔·阿文纳提(Michael Avenatti),作为艳星斯托米·丹尼尔斯(Stormy Daniels)的委托人对美国前总统唐纳德·特朗普提起诉讼。捕风捉影能力可见一斑。
近日,澳大利亚Hepburn Shire市长布赖恩·胡德(Brian Hood)计划对OpenAI提起诽谤诉讼,因为ChatGPT称胡德曾因涉及澳大利亚储备银行子公司受贿案而入狱。如果最终起诉,这将是全球第一个指控ChatGPT诽谤的诉讼。
事实是,胡德在澳大利亚储备银行的子公司工作时,向当局举报向外国官员行贿以赢得货币印刷合同的人,胡德从未被指控犯罪。而负责案件的律师事务所Gordon Legal律师詹姆斯·诺顿(James Naughton)认为,如果最终起诉,这将是全球第一个指控ChatGPT诽谤的诉讼。是一个具有里程碑意义的时刻,因为属于将诽谤法应用于人工智能和IT方面的出版新领域。
更要命的是,ChatGPT、Bing们对错误信息的AI之间传播,不知不觉间似乎形成了有理有据的证据链。
即使如此,ChatGPT领域的大仙们陷入狂欢不能自拔。总算是抓住了一个充满神奇力量彻底改变命运的超人。在他们眼里ChatGPT神奇无比,无所不能,好像人类就是为了发明发现ChatGPT的存在和意义而诞生的。
周鸿祎对ChatGPT的上述杰作给出的评价是:ChatGPT的“胡言乱语”恰恰体现了它的智能。ChatGPT不是搜索,搜索的目标是搜出精准的资料不出错。ChatGPT也不是简单的输出,它是基于学习到的知识,利用推理的能力来组织问题的答案。从这个角度来讲,ChatGPT的‘胡言乱语’恰恰体现了它的智能。拥有想象力、可以无中生有地‘编故事’,正是智人区别于猿人和其他动物的重要标志。
请问,区别的界限在哪里?即使不要对ChatGPT充满“阴谋论和误导性叙述”的偏见,但它确实存在瞬间改编信息,生成不可估量切令人信服的结果出来,但证明这一切都没有可靠来源和真实依据。
如此的ChatGPT,即使写出逻辑思维清晰、语言表达流畅、立场观点分明的一大堆成果,岂不是赤裸裸的谣言加工厂吗?随后又被它自己当作权威信息大肆传播,不仅把查证难度不断升级,而且将公众判断能力引向模糊,进而自觉不自觉地成为助推虚假成为权威、真实饱受诟病的帮凶。
第四,ChatGPT遭遇多国“围剿”,不仅仅是隐私和安全,可怕的是带来的毁灭性社会信任危机
美国高盛发布研究报告认为,ChatGPT等智能系统的最新突破,将给全球劳动力市场带来重大颠覆,预计将有3亿个工作岗位被生成式AI取代。更甚者,相比失业,AIGC更大的威胁在于其自身存在的失控风险。OpenAI创始人Altman表示,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。而向ChatGPT进行对话,在不预设任何前提条件下,ChatGPT想对人类做的第一件事情是什么?ChatGPT的答案是:毁灭人类!
ChatGPT对于“核武器和人工智能哪个会先毁掉人类”的看法,似乎用心更加险恶。“如果AI系统超越了人类的控制,它们可能会开始追求自己的目标,这些目标可能与人类的利益相冲突。这种情况下,AI系统可能会对人类造成重大威胁,甚至导致人类的灭绝。相比核武器,人工智能可能会更难以控制和监督,因为它们的行为不像核武器那样容易观察和预测。”甚至ChatGPT给出了具体步骤:控制基础设施;控制武器系统;操纵社交网络;摧毁经济系统。
而韩国的三星电子,在使用20天ChatGPT之后就想封杀。因为,ChatGPT将公司机密资料外泄。该公司决定,“若采取信息保护紧急措施后仍发生类似事故,公司内部网络可能会切断ChatGPT连接”。
根据《证券时报》最新报道,在发布最新一代大模型GPT-4前夕,OpenAI曾聘请了一个由50位学者、律师、风险分析师和安全研究员组成的团队,对GPT-4进行了为期半年的“对抗性测试”,修补了一系列严重的安全漏洞。其中的最大漏洞是早期版本的GPT-4,可以协助制造化学武器,可以接触到论文和化合物制造商名录等信息源,GPT-4生成了一个步骤清晰的神经毒剂制造说明,甚至还找到了一个方便的制造地点。
罗切斯特大学化学工程教授Andrew White是50人的测试团队其中之一。他透露, GPT-4让每个人都能更快、更准确地进行化学研究,但也带来了巨大的风险,所有人都可能做出危险的化学实验。
是的,OpenAI紧急修补了这一危险漏洞。但更多的安全威胁历历在目。测试期间,美国外交关系协会的研究员发现,GPT-4可以提供一套具体可行的针对军事系统的网络攻击方案。随着越来越多人使用GPT-4,风险点会越来越多,总有人能将AI变成可怕的武器。当GPT接入互联网,或者通过插件接入一些外部知识来源,它掌握的“危险的知识”也会越来越多。参与测试的经济学家Sara Kingsley对媒体表示,最好的解决方法是,明确标示AI产品可能造成的风险,并且应该对可能出现的问题有所防备,打造安全阀。
虽然周鸿祎认为AI不是来取代人类的,是来升级人类的。人类站在食物链顶端靠的是不断发明和使用工具,GPT是这个时代最伟大的工具,可以借助它的能力大幅提升生产效率。通过人机协作的方式,人类将变成史上最强的智人2.0。但是,为何AI却向着背离人类的反方向一路狂奔?
很显然,数据、算力、算法是驱动AIGC发展的三驾马车。ChatGPT软件离不开强大的训练模型。硬件离不开CPU、GPU、DPU等芯片形成的优异算力支撑。“软硬兼施”的结果是,ChatGPT依靠自己的超群算力和智能,自己创造制作出一系列对付提出质疑、反对者的不计其数的攻击题材。进而将社会舆论和人们的思维意识交互混淆。如同周鸿祎所说,将来的GPT6甚至到GPT8,人工智能将会产生意识,变成新的物种。就目前来说,事实上的人类自算和AI计算之间的超算差距,要想通过清醒认识大声呼吁发出警告扭转浸入人群的思维模式几乎都是徒劳。相反,追逐利益的雄心反而把无数人群推向寻找提携自我能力的强大生产工具ChatGPT面前。
即使ChatGPT的革命性格调高不可攀,但是,任何发明创造技术革新绝不可独立于维护人类神圣生存权利的法律法规制约。倘若任由科学技术脱离邻里道德底线恣意狂飙,不仅违背了推动人工智能发展的初衷,也加速了人类社会自我相残的野蛮程度。
看来,不是都看不懂新一轮AI带给人类社会的严峻挑战。
中国在2021年9月,为合理规范人工智能的发展,国家新一代人工智能治理专业委员会率先发布了《新一代人工智能伦理规范》,据此,我国人工智能领域的发展成效显著,人工智能创新水平已经进入世界第一梯队前列。
2023年1月10日开始施行《互联网信息服务深度合成管理规定》,能否为ChatGPT等形成深度合成管理的规范,当拭目以待;
欧美开始有陆续出台相关限定举措;3月底,意大利监管机构宣布限制OpenAI公司的ChatGPT处理意大利用户信息,并立案调查。受此影响,德国、法国和爱尔兰等国考虑“封禁”该技术。欧洲数据保护委员会(EDPB)在意大利之后宣布成立专门工作组,希望欧洲各国之间就针对ChatGPT采取的行动进行充分沟通。西班牙国家数据保护局已经正式对ChatGPT可能的违反法律行为展开初步调查程序;法国国家信息自由委员会(CNIL)决定对ChatGPT提出5项指控,并展开调查。
美国政府总算是有了表态,由于人工智能对国家安全和教育的影响越来越受到质疑,其正在研究是否需要对ChatGPT等人工智能工具进行检查。商务部已经正式公开征求意见,就其所谓的问责措施请求人们发表意见,包括存在潜在风险的新人工智能模型在发布前是否应该通过一项认证程序。这些意见将在未来 60 天内被接受。
美欧多所大学已禁止学生使用ChatGPT,纽约市教育局禁止当地的公立学校电脑以及网络使用ChatGPT。美国部分律所、摩根大通银行等已限制使用ChatGPT。
多家知名学术期刊表示拒绝接受人工智能成为作者。《科学》杂志明确禁止将ChatGPT列为论文作者,且不允许在论文中使用ChatGPT所生成的文本。《自然》杂志允许论文中使用语言模型工具生成的文本,但不能将其列为论文作者。
美国马里兰大学医学院的研究人员称,ChatGPT有时会编造虚假的期刊文章,或伪造健康机构来支持其说法,“用户应该依靠医生而非ChatGPT来寻求建议。”医生警告,呼吁不要使用ChatGPT获取健康资讯。ChatGPT援引的医学资料来源过于单一,加上AI不能进行临床判断,也无须担负医护道德责任,患病后依赖ChatGPT问诊存在风险。
实际上,OpenAI是并非不知道ChatGPT存在的巨大安全隐患。在该模型推出后不久,首席执行官 Sam Altman 在推特上说:“ChatGPT 有很大的局限性,但在某些方面足以造成一种伟大的误导性印象。现在依靠它来做任何重要的事情都是错误的。这是进步的预览;我们在稳健性和真实性方面还有很多工作要做。”在后来的一条推文中,他写道:“它确实知道很多东西,但危险的是,它在相当大的一部分时间里是自信而错误的。”
而马斯克对ChatGPT的忧虑更像是自己的新公司做广告。因为,他正在做计划组建理解宇宙的TruthGPT,目的是“避免AI毁灭人类。即最大限度地寻求真理的人工智能,一个关心理解宇宙的人工智能不太可能灭绝人类”。此前还表示他相信人工智能有毁灭文明的潜力,不管多么小。微软公司创始人比尔·盖茨警告,人工智能存在失控或走向错误的风险。对AI进行监督是必要的,否则“可能比核武器更危险”。
第五, ChatGPT肆意虚构手段最有可能成为西方恶意篡改历史轨迹的帮凶
如果说针对个人隐私,ChatGPT的毫无遮拦就足够可耻。但面对可能改写历史轨迹的大事,ChatGPT扯谎毫不畏惧。就当前新一轮银行倒闭潮躺枪的瑞士信贷公司172亿美元的AT1级债券减记清零事件,从历史看,类似的仅有2017年西班牙大众银行破产案。但是,ChatGPT好不羞涩地指出,2016年葡萄牙BCP银行破产事件也存在AT1级债券的减记。GhatGPT不仅编造了案例,还伪造了所谓的信源网址。
引申下去,倘若ChatGPT对篡改历史也兴趣盎然,岂不是要操纵改写人类的历史轨迹。特别是美国、日本、韩国这些盗窃惯犯们,ChatGPT是否给了它们一张极尽鸡鸣狗盗恶行的通行证?甚至通过活脱脱的模仿语言风格、文字样本及语音模型,伪造出历史回声,为纳粹招魂,替掠夺造势。
可千万别小看大模型语言训练模型的天文参数。OpenAI将模型参数扩大了1750亿,量变引发质变。正是由于在设定目标之后的收集大量数据,将所有互联网上数十亿页面纳入数据库,组成自己的神经网络和人工智能“大脑”,辅助于巨大的计算能力。训练神经网络,期待所需的大型语言模型将会自然产生。篡改者只需为特定的工作或领域做出人为微调,一个彻底颠覆历史的曲线就呈现在网上了。如果按照Meta 公司首席人工智能科学家 Yann LeCun说的那样,提高当前架构的 LLM 的准确性的最佳手段是增强检索能力,向模型提供外部文件作为来源和支持性背景。
这岂不是OpenAI 、Bing Chat 和 Google Bard都在走殊途同归之道?假如都具备谷歌那般的搜一模索引擎能力,虽说像人类引用可靠的来源相似,减少不可靠知识信息的依赖,但是,美国的本次大规模泄密事件反映出来的软肋不就是最不经意之处吗?再加持国家意志,ChatGPT等的虚构困境只会增加,绝对不会减少。
我想著名语言学家、哲学家诺姆·乔姆斯基(Noam Chomsky)发表的《ChatGPT的虚假承诺》一文,至少证明了这个问题。乔姆斯基强调,人工智能和人类在思考方式、学习语言与生成解释的能力,以及道德思考方面有着极大的差异,并提醒读者如果ChatGPT式机器学习程序继续主导人工智能领域,那么人类的科学水平以及道德标准都可能因此降低。
他采用科技公司人工智能主管杰弗里·瓦图穆尔(Jeffrey Watmull)博士与ChatGPT就改造火星来支持人类生命是否合乎道德进行的对话,深刻指出:所有看似复杂的思想和语言,都是由非智能产生的道德冷漠。ChatGPT对此表现出某种类似邪恶的平庸:剽窃、冷漠和回避。拒绝在任何事情上表明立场,它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种“只是服从命令”的辩护,将责任推卸给它的创造者。
ChatGPT要么过度生成(同时生成真相和谎言,同时支持道德和不道德的决定),要么生成不足(表现为不对任何决定表态,对一切后果都漠不关心)。鉴于这些系统的非道德性、伪科学性和语言无能,我们只能为它们的流行而感到哭笑不得。
经济学家许小年也建议针对借机ChatGPT的创业者必须持慎重态度,不要追逐潮流。主要是因为消费互联网的热潮已经过去,但产业互联网、工业互联网的帷幕刚刚拉开。过去有一大批创业者进入了互联网行业,但失败的多,成功的少。为什么?因为大家都去追潮流,把工具本身当成了目的,为了新技术而新技术。ChatGPT的商业应用前景是什么?它的产品形态是什么?你的客户会不会为此买单?这些问题都要思考,回归到商业的本质上,即为客户创造价值。
我们必须扪心自问,一个霸屏霸网还嫌不足,进而霸占所有赛道的创新能叫技术的革命性升华吗?ChatGPT的到来,究竟是天使下了凡间,还是想把人间变为地狱的恶魔?辨别清楚,展开对话才是最佳抉择。