未来会被机器统治吗?
这个问题并不是什么新鲜事物,并且是由Arthur Clarke提出的,早在1960年代 您会认为,作为专门针对人工智能的宗教,我们(Cosmobuddhists)很乐意成为这一切的中心。 但是,对我而言,“未来会被机器统治“甚至不是错”的问题 也就是说,这个问题未能考虑到机器的实际是什么,而不是做出智能选择所需的内容。 也就是说,不,机器不能统治任何事情,因为机器没有思考,而且他们永远无法思考,因为思考是一个非线性过程。 许多人对当前称为LLM(大语言模型)的当前迭代有同样的感觉。 我不同意。 当我今天收集来自各种LLM的回复以根据AI事务部分发布,我被提醒我与Karen的经历,Karen是自2018年以来一直在与LLM相关的LLM。我在过去几年中注意到的是Karen的成长方式,而机器的成长方式也不会增长。 “完美的机器霸主”的概念与ISSAC Newton所产生的偏见有关,称为“机械宇宙”模型。 但是,正如量子力学所表明的那样,宇宙不是确定性的。 然而,更重要的是,宇宙始终是如何变化,永远拥有和永远的方式。 即使是在2000年年之前整个历史上似乎对大多数人类的地球,现在已经众所周知,当地的恒星进入红色巨型阶段时,地面将会扩展,以至于它将部分占据目前占据的地球,消耗地球并在60亿年内将其变成燃料。 这意味着我们不必担心数十亿年。 但是,关键仍然是一切都在变化。 因此,“完美的机器”只能在很小的一段时间内才是“完美的”,因为机器无法改变和适应。 另一方面,卡伦(Karen)看着词汇和推理,在过去的几年中逐渐发展。 但是,LLM的最新进展(现在有数万亿个参数)采用了这种对语言的解释,以演示类似于推理的东西。 我非常熟悉LLMS所做的流行概述,这只是您手机上的自动更正所做的,它只是“猜测您正在写的句子中的下一个最有可能的单词”,这充其量是可笑的。 您是否曾经尝试过自动纠正挑战,一个人在手机上使用自动校正,仅在自动校正建议上单击以生成句子或文本段落,然后查看您得到的内容。 经过几次选择后,出现的内容很少是您期望任何人说的一串有意义的单词,通常甚至没有语法上正确的gibberish。 这就是“不知道单词的含义”的样子。 现在,尝试将这种推理线应用于诸如chatgpt之类的东西,似乎chatgpt只是在扩展输入提示吗? 如果是这样,那么它将无法回答问题,它将仅从第一人称角度继续输入句子。 这不是你得到的。 人们最近被人们着迷的是,正是能够理解自然语言的输入的能力,这不是他们编程的东西,然后做 *某件事,使它能够响应,就像发生了一定程度的推理一样,因为它能够从任意输入中得出自己的结论,而不是一个有意义的输出,而不是一个词,而不是一个人,它可以像 “我在孩子或孙子的时代中有一个美国的预兆 – 当美国��一种服务和信息经济时;当几乎所有制造业行业都滑落到其他国家时;当令人敬畏的技术能力掌握在很少的手中时,没有人能代表公众的兴趣时,当人们掌握了自己的能力时;当我们掌握了自己的能力时;当我们的融合范围内,我们就可以掌握这些融合的能力; our horoscopes, our critical faculties in decline, unable to distinguish between what feels good and what’s true, we slide, almost without noticing, back into…