231. DeepFake进入日程(1 / 2)
“孟繁岐先生日前为我们展现了一款先进的自然语言处理算法,这无疑为人工智能领域带来了诸多的便利,显然是一项巨大的技术突破。它可以在各种序列问题场景中应用,例如文本生成、对话系统、机器翻译等。”
“尽管t方法带来了良多益处,可其最后预想的那种通用级别的智能同样存在一些潜在的安全威胁问题。其中不少问题都相当严肃。”
“例如,信息安全是一个重要的因素。孟繁岐设想的这种办法可能会被用于生成虚假信息或误导性内容。这可能会导致真实性受损,给社交媒体、新闻传播和ZZ等领域带来不良的后果。”
“同时,隐私问题也非常值得关注。这种办法显然需要基于海量的训练数据构建,从而在交互对话的时候非常有可能泄漏用户的敏感和私密信息。”
“此外,道德伦理方面的问题也不容忽视。它极有可能无法辨别不道德、有害的建议或内容,从而可能误导用户去采取错误的行动。”
“并且就业问题显然也会受到这种智能的影响,那些依赖这种语言处理工作的人工岗位将会受到冲击,可能导致失业率上升,社会动荡。”
“最后,我们无从得知这种智能是否会拥有自主的意识和决策逻辑,依赖其能力很可能导致各行业风险激增。”
孟繁岐这几天纵览了诸多新闻报道和业内人士的讨论,总体来说还是赞扬和吹嘘得居多,不过像本吉奥这种提出严肃问题的顶级学者和媒体也不在少数。
孟繁岐自己总结下来真真有意义的问题大概就是上面那些,其他的大都是不切实际的东西,不予考虑。
“这些问题基本上都是比较中肯的,属于我在一步步开发过程当中确实必须尽量解决的。”
这其实是chatGpt技术路线走到后面商用、面对公众阶段的必经之路了,原本的openAI也是一步步踩着坑走过来的。
这些问题搞不定,是非常大的麻烦。
当年Gpt-4训练完成之后,之所以推迟了半年多之久才发布问世,就是因为有这些问题需要处理确认。
他们需要确保自己的产品不会由于训练数据的原因,泄露某人的隐私给大众;不会针对某些问题发表反社会,种族歧视等方面的言论;也不能够随意地给出一些信息和情报,但实际上完全是编造的。
这实在是相当困难的一件事情,即便广受好评的chatGpt,在这些问题上面也有诸多的不足。
它给出的很多咨询、网站、论文甚至学者之类的信息,都是自己胡说八道的。
此前美国还有律师借助chatGpt给客户打官司,结果给法官的判例文书里引用的几个例子全都是chatGpt编造的,害得客户输掉了官司。
openAI也确实给chatGpt上了诸多的枷锁,让它对很多事情不做评论,可用户总是能够找到办法绕过,又或者是催眠它,让它说出对应的回答。
openAI频频修正这些漏洞,可民众们总是有办法能找到新的。
两边斗智斗勇,不亦乐乎。
这也是程序测试界的历史性难题了。
不论你自己做的测试再多,总有用户能找到一个非常神奇的方式,触发你完全没有想过没有测试过的bug。
有一个非常着名的笑话,可以很好地表达这个现象。
一个测试工程师走进一家酒吧,要了一杯啤酒,一杯咖啡,0.7杯啤酒,负一杯啤酒,一杯洗脚水,一杯洗洁精,程序均正常工作。
他甚至尝试了化妆成老板要了500杯啤酒并且不付钱,这个酒吧程序还是正常工作。
结果程序上线之后,一名顾客点了一碗炒饭,程序炸了。
而针对业界和媒体的这些担忧,孟繁岐总体的策略是比较低调地回应。
秉持着多说多错的原则,孟繁岐的回应可以说是三步走,每一步都非常简短,首先感谢大家对这个领域相关问题的督促和关心;其次表达这方面的内容,很多他也已经想到过了;最后委婉地提醒了大家,即便自己已经有了思路,距离做出雏形成果也得有个大半年的时间。
只说了四句话。