Foresight News

Posted on Jun 12, 2023Read on Mirror.xyz

语言用户界面时代的危机:人工智能与比特币

我们正在进入语言用户界面的时代;这是一个巨大的范式转变,不是 AGI,而是 LUI。

撰文:Aleksandar Svetski 编译:Luffy,Foresight News

世界正在发生变化。人工智能(AI)是一项颠覆性的技术突破,但可能并非是因为你所想象的原因。

你可能听说过类似「通用人工智能(AGI)指日可待」或「现在语言已经解决,下一步是有意识的 AI」之类的论断。

好吧……我在这里告诉你,这些都是转移注意力的概念。它们要么是相信「上帝存在于电路之中」的技术专家的天真妄想,要么是别有用心的人士故意煽动恐惧。

我不认为 AGI 是一种威胁,或者我们有「AI 安全问题」,或者我们即将摆脱某种机器奇点。

但…

我确实相信这种技术范式转变对人类构成了重大威胁——事实上,这是我唯一能与主流达成某种共识的地方,但却出于完全不同的原因。

要了解它们是什么,我们首先要知道真正发生了什么。

随机的鹦鹉

技术是放大器。它让好的事情变得更好,让坏的事情变得更坏。

正如锤子可以用来盖房子或敲打某人头部一样,计算机技术可以用来记录改变世界的想法,也可以用来操作奴役你的中央银行数字货币(CDBC)。

人工智能也是如此,它是一种工具,也是一种技术。它不是一种新的生命形式,尽管那些呼吁阻碍进步的孤独书呆子迫切地想要相信。

生成式人工智能(AGI)之所以有趣,并不是因为它有感知力,而是因为它是我们历史上第一次以连贯的方式与人类以外的事物交流。在此之前,我们最接近的交流对象是……鹦鹉。

是的:鹦鹉! 

你可以训练一只鹦鹉说话和顶嘴,你可以理解它,但因为我们知道它不是真正的人类,也什么都不懂,所以我们没有留下深刻的印象。

但是生成式人工智能是另一回事。我们已经熟悉它了,即便我们不知道它是如何在引擎盖下工作的。我们输入一些单词,它的反应就像你在课堂上认识的那个烦人的、政治正确的、机智的书呆子。

事实上,你甚至可能在 Booking.com 或你必须拨入的任何其他的客服电话中与这样的人交谈过。你会对回复感到震惊。

「天哪,」你告诉自己,「这东西说话跟真人似的!」

完美的英语、没有拼写错误、句子逻辑清晰。它不仅在语法上准确,而且在语义上也是如此。

你几乎没有意识到你正在和一只高度复杂的、随机的鹦鹉说话。事实证明,语言比我们所想的更有规则,概率引擎实际上可以通过语言的框架很好地模拟智能。

大数定律再次来袭,数学再创佳绩!

但是,这是什么意思?我的意思到底是什么?这个没有用?这证明它不是通往 AGI 的道路?

不一定。

这种工具有很多实用性。事实上,最大的实用性可能在于它作为「MOT」或者说是「Midwit Obsolescence Technology」的应用。清醒的记者和数不尽的「内容创作者」,多年来一直滔滔不绝而又言之无物,现在他们就像恐龙看着彗星吞噬周围的一切。

当然,这些工具也非常适合构思、更快地编码、进行一些高级学习等。

但从 AGI 和意识的角度来看,谁知道呢?那里可能有一条路,但我敏锐的直觉告诉我,我们离得还很远。我认为意识要复杂得多,我们用概率机器培养意识的尝试是无知、傲慢、天真和空洞的。 

那么,我的问题到底是什么,风险是什么?

进入语言用户界面时代

记住我所说的工具。计算机可以说是人类创造的最强大的工具,它经历了以下演变:

  • 卡片打孔

  • 命令行

  • 图形用户界面

  • 移动,即拇指和敲击

现在,我们正在进入语言用户界面(LUI)的时代。

**这是一个巨大的范式转变,不是 AGI,而是 LUI。**展望未来,我们与之交互的每个应用程序都将拥有一个对话界面,我们将不再受到手指在按键或屏幕上敲击速度的限制。

说「语言」比打字和敲击快几个数量级。思考可能是另一个更高的层次,但我们不会很快把任何电极放在脑袋里。事实上,LUI 可能会淘汰对 Neuralink 类技术的需求,因为将芯片植入大脑相关的风险将超过所带来的任何边际收益​​。

无论如何,未来十年我们将从点击图形用户界面转变为与我们的应用程序对话。

这就是危险所在。

就像今天的谷歌决定我们在搜索中看到的内容一样,Twitter、Facebook、TikTok 和 Instagram 都通过他们的 Feeds 向我们投喂信息;明天,生成式人工智能将决定我们所有问题的答案。

屏幕不仅成为你从世界汲取一切的镜头,屏幕成为你的世界模型。

Mark Bisone 最近写了一篇讨论这个问题的精彩文章,我强烈建议你阅读:

「屏幕」的问题实际上是一个非常古老的问题。在许多方面,它可以追溯到柏拉图的洞穴,也许它深深植根于人类状况,以至于它先于书面语言诞生。因为当我们谈论屏幕时,我们实际上是在谈论以编辑形式传播的虚幻模型。

 

这个诡计是这样运作的:你会看到一个事物的图像(现在,还有它的声音),它的呈现者要么明确地告诉你,要么强烈暗示它是通向真实世界的一扇窗户。影子和实体是一样的,换句话说,影子和你用感官直接观察到的任何现实片段一样值得信赖。

对于那些认为「这暂时不会发生」的人来说,这里有一些笨手笨脚的傻瓜正在尝试这样做。

「大同质化」

想象一下,你提出的每一个问题、你要求的每一张图片、你想象的每一个视频、你寻找的每一组数据,都以某种匿名的「安全警察」认为「安全」、「负责」或「可接受」的方式返回。

想象一下,你消费的每一点信息都被转化为一些不冷不热的、中间版本的真相,你所要求的每一个意见都不是真正的意见或观点,而是一些无礼的、道歉的回应,实际上并没有告诉你任何事情。更糟的是,某种意识形态包裹在回应中,以至于你所知道的一切都变成了「安全人工智能」希望你思考和知道的东西。 

想象一下,你拥有现代迪斯尼角色,比如电影《The Eternals》中的那些小丑,作为你无时不在的智力助手。它会放大你的「愚蠢」。

《反共产主义宣言》将乌托邦共产主义梦想概括为人类的大同质化: 

如果每个人都是电子表格上的一系列数字,或者是具有相同观点的机器,那么人间天堂就唾手可得。你可以为每个人分配足够的配给,然后我们都会成为同样悲惨的无产阶级。

这就像乔治奥威尔的思想警察与「盗梦空间」的交叉,你提出的每一个问题都会被完美捕捉和监控,人工智能的每一个反应都可以在你的脑海中植入一种意识形态。仔细想想,这就是信息的作用,它在你的脑海里种下种子。

这就是为什么你需要在头脑中有一套不同的想法!在你的脑海中,你想要一片繁茂的雨林,而不是一些单一作物的小麦田,土壤恶化,容易受到天气和昆虫的影响。你希望自己的思想蓬勃发展,为此你需要思想多元化。 

这是互联网的承诺,任何人都可以畅所欲言的地方。互联网一直是一股向善的力量,但它正受到攻击。无论是社交资料的去匿名化,如 Twitter 和 Facebook 上的那些,还是各种在线平台上不断蔓延的 KYC,再到从平台本身喷出的算法垃圾。

类似 WEF 的组织推动为在线身份建立 KYC,将其绑定到 CBDC 和你的虹膜是一种方案。在最近对医学实验的抵制之后,这样的措施可能更难实现。一个更简单的举措可能是让 LUI 接管,同时创建一个「AI 安全委员会」,它将在所有主要的大型语言模型上建立「安全」过滤器。

你不相信?我们的 G7(七国集团)已经在讨论它了。

今天,网络仍然是由网页组成的,如果你有足够的好奇心,你可以发现藏在深处的黑暗角落和缝隙。你仍然可以上网冲浪,但是,当一切都只能通过这些模型访问时,你就不会再上网冲浪了。你只是得到了经过所有必要的过滤器和检查器运行后的综合响应。

那里的某个地方可能会有一些真相,但它会被众多的「安全层」所包裹,以至于 99.9% 的人不会听到。

当信息的可发现性发生根本性转变时,我不确定互联网的大部分内容会发生什么。可以想象,随着大多数应用程序过渡到某种形式的语言界面,你将很难找到你正在使用的「门户」认为不安全或未批准的内容。

当然,有人可以这样论证,就像你需要坚韧和好奇心才能在网络上找到持不同政见的缝隙一样,你需要学会破解这些平台上的更好答案。

这可能是真的,但在我看来,每当你发现一些「不安全」的东西时,路线就会被修补或封锁。

然后你可以争辩说「这可能会降低该工具的实用性,从而适得其反。」

再一次,我可能会同意。在自由市场中,这种愚蠢会为更好的工具让路。

但当然,自由市场正在成为过去。我们在这些歇斯底里的推动「安全」的尝试中看到的是,他们有意或无意地为压制可能的替代方案铺平了道路。

在创建「监管」这些平台的「安全」委员会时,未通过此类「安全或毒性过滤器」运行的新模型将无法供消费者使用,或者它们可能被定为非法。有多少人还在使用 Tor?或者 DuckDuckGo?

如果你认为这不会发生,这里有一些关于大多数 LLM(大语言模型)已经接入的「毒性过滤器」的信息。这样的过滤器变成强制要求只是时间问题。一种新的依从性附属物,像公牛背上的山雀一样绑在语言模型上。

无论对这种同质化尝试的反对意见如何,两者实际上都支持我的观点,即我们需要建立替代方案,我们需要现在就开始这个过程。

对于那些仍然倾向于相信 AGI 指日可待并且 LLM 是朝那个方向迈出的重要一步的人来说,无论如何,你可以自由地相信你想要的,但这并不能否定本文的观点。 

如果语言是新的「屏幕」,我们看到或听到的所有语言都必须经过受批准的过滤器,那么我们消费的信息、我们学习的方式、我们的想法,都将被缩小到一个非常小的奥弗顿之窗(译者注: 奥弗顿之窗是一个专用语,指的是公共话语思想容忍的范围,也称为话语窗口)。

我认为这对人类来说是一个巨大的风险。

我们已经变得足够愚蠢,社交媒体算法为我们提供他们认为我们应该知道的信息。而语言用户界面是社交媒体的 100 倍。

想象一下,下次所谓的「危机」来袭时,他们能用它做什么?

思想市场对于一个健康和功能强大的社会是必不可少的。这就是我想要的。

他们狭隘的思想不会长期有效,因为它是反生命的。最后,它会失败,就像所有其他试图掩盖真相并忽视它的尝试一样。但每一次尝试都会带来不必要的伤害、痛苦、损失和灾难。这就是我试图避免并帮助敲响警钟的原因。

该怎么办?

如果我们在这里不积极主动,整个人工智能革命可能会变成「大同质化」。为了避免这种情况,我们必须做两件主要的事情:

 

  • 反驳「人工智能安全」的说法:这些表面上看起来像是安全委员会,但当你深入挖掘时,你会发现它们是言论和思想的监管者。

  • 构建替代方案:构建许多方案并开源它们。我们越早这样做,他们越早可以在本地运行,我们就越有可能避免一个一切都趋向于同质化的世界。

 

如果我们这样做,我们就能拥有一个具有真正多样性的世界,而不是那种清醒的胡说八道。我的意思是思想的多样性、想法的多样性、观点的多样性和真正的思想市场。

 

互联网最初的承诺是什么?不受打字和点击的低带宽限制。将其与比特币、货币互联网相结合,你便拥有了光明新未来的要素。

 

这就是我和团队在 Laier Two Labs 所做的事情。我们正在构建更小、更窄的模型,人们可以使用这些模型来替代这些大型语言模型。

 

我们将开源我们所有的模型,并及时将它们变得足够轻巧,以便在你可以在自己的机器上本地运行,同时保留一定程度的深度、特征和独特的偏好,以便在你最需要的时间和地点使用。

 

我们将在未来几周内公布我们的第一个模型。目标是使其成为我非常珍视的主题和行业的首选模型:比特币。我还相信,我们必须开始构建一套可供选择的 AI 模型和工具。