我们到底需要什么样的AI?

104

一、从信息处理和复杂度开始谈起

首先,我们认为从广义信息处理的角度来讲,一个系统想要实现某些功能特性,基础是一定水平的必要复杂度。

暴论:香农的信道编码指出,存在一种编码方法使得在给定的信道噪声水平下,信息传输速率不超过信道容量时,可以实现几乎无误的通信。信息熵是衡量信息不确定性的度量,复杂任务的输入信息通常包含高熵(如给我分析拼多多的年报),具有较大的不确定性或变异性。那么对于复杂任务处理而言,此系统相当于一个“智能信道”,其处理能力和准确性受限于其内部的“信道容量”。提高这个“信道容量”(即处理能力)通常意味着增加系统的复杂度,以更有效地编码和解码复杂信息,减少错误和提升效率。

  • 要处理一个领域的信息,很可能需要系统已经存储了这领域的知识并能够使用;
  • 要对于一个场景能够给出预测,那么需要系统已经记住之前各种场景下的经验。

类比之下就是:师傅之前教过这个,所以我会干xx

**计算的本质就是对事物的求解——我问,我算,我求解。**y=F(x),输入问题自变量x,得出答案因变量y。F(x)或许就可以抽象为这个“系统”,将用户输入的信息接收、处理,最终得出答案y。

So,what can i say?

从这个角度看,古人龟甲占卜,观天象来决定军国大事,和我们现在用计算机求解是不存在根本性的差异的,只是问询的对象从虚幻的神变成了更为精确的超大规模集成电路加持下的数学与代码,中间的处理过程从先辈的冥冥经验变成了更为精确可信的逻辑推理与运算。**文明发展的程度不一样,但大家的追求都是一样的——算出一个更接近真实的答案。**各种计算的发展史就是在寻找一个更高效、准确的求解方法,我们现在开炉炼丹大模型也得烧个香求收敛不是,这就是历史的传承.jpg

1.生成式AI之前

在AI浪潮之前,我们人类是如何完成复杂任务的?

专 业 分 工

大家问道:“为了将瓦良格号完工,工厂究竟需要什么?”马卡洛夫回答道:“苏联、党中央、国家计划委员会、军事工业委员会和九个国防工业部、600个相关专业、8000家配套厂家,总之需要一个伟大的国家才能完成他。”

从原始社会末期开始的农业与畜牧业分离,到手工业与农业的独立,再到脱产士兵、官僚与各种细化阶级,整个社会分工构建在层级管理与网络化协作上,层级结构提供清晰的指挥链和责任分配,而网络结构则促进信息流通和灵活合作,多条管线相互独立以保证集中资源和专业知识处理特定任务,最终完成一个复杂的社会工程。我们处理复杂度的方式就是人工处理,每个部分至少确保有人可以充分理解这个局部的复杂度,组合在一起形成了一个可以处理该问题的“系统”。

这个时期,不依赖人工处理复杂度的方式是极少的,主要分为两种:机器学习算法与运筹优化算法。

(有监督)机器学习算法的主要功能是从数据中自动的学习出其中的相关性,获得在给定模型约束下的最好(或比较好的)的相关性拟合结果。而使用该算法的人并不需要充分理解数据中到底有哪些具体的相关性规律。在训练过程中,算法自我优化调整参数,以最小化预测误差或其他目标函数,从而在新的数据上做出准确的预测或决策(之后的大模型就将这条路子发扬光大了)。但是在cuda等方案还没有提出的时代,算力紧张限制了机器学习算法的发挥,只能做一些小细节上的修修补补,自数据和算力快速增长之后,深度学习等方案才做到了相对不依赖于算法使用者输入太多的先验知识就能求解的程度。

运筹优化算法则指在给定约束条件下寻找最优或近似最优解(从简单的线性规划到工业界常用的混合整数线性规划乃至更困难的非线性规划等等问题),与机器学习不同,运筹优化更多关注于确定性或风险可量化的情况,力求在有限资源下最大化效益或最小化成本。

  • 机器学习擅长处理不确定性、非结构化数据和模式识别,而运筹优化则在处理结构化决策问题、优化目标和约束条件方面更为高效

2.生成式AI之后

我不敢也没能力妄下定论(某工程师:现在是个搞科研的都想对大模型导一发.jpg),直接引用大佬的观点吧:

在我来看,GenAI时代的大模型并没有涌现能力,它们仍然是在学习原始数据中的规律,只是某些规律在很抽象的层面,让大多数人觉得很难理解。

这一轮大模型范式给机器学习领域带来了一个重要的启发:不必非要直接一次性的去学习目标问题,可以将困难的问题分解为小的“片段”去学习,再在使用中完整的生成最终结果。以物理的角度来说就是不必直接学习完整的复杂曲线的形状,而是去学习所有位置的偏微分方程的系数。以stable diffusion来说就是学习每次如何从图像中去除一点噪声,以LLM来说就是学习每次只预测下一个token。

事实证明这种方式是有效的,人类解锁了一大类数据/问题的可学习性。毫无疑问,近期的各类大模型是人类操控复杂度能力的重大进步。

但目前大模型的能力仍然是有限的,它们生成不了一些具有复杂信息和内部结构的对象。例如SD模型无法生成可用的建筑设计图纸,LLM模型也很难生成合法的复杂网页HTML。作为完全仅靠自回归方式生成整体内容的方案,这个结果已经算不错了。

By 孔某人

现在来看估计单Model能独立完成遥遥无期,或许Multi—Agent系统是未来的方向之一。

我们从始至终对于AI的定义就是——工具,帮助我们解决复杂度的工具系统。这个复杂度可以是工作内容,可以是十万个为什么,可以是虚拟对象,可以是具身智能……

Whatever,它是工具,而且我们希望它最终可以成为完全替代人的工具。

二、多样性与对齐共识

1.何为对齐?

既然我们对于AI的定义就是一个尽量趁手的工具,那么就不得不谈“对齐”。

密歇根州的北点公司(Northpointe)开发了名为“替代制裁矫正罪犯管理分析”(COMPAS)的风险评估系统,COMPAS能对各种风险给出1到10的评分,包括一般累犯风险、暴力累犯风险和审前不当行为风险。但ProPublica组织在调查后认为该系统在针对不同种群、肤色的人群进行量刑时存在系统性差异(尤其对黑人存在偏见)。不仅是COMPAS,也不仅是更广泛的风险评估算法,还有公平的概念本身。确切地说,我们如何——用统计学和计算的术语——定义法律阐明的原则、权利和理想?

这个世界正逐渐以各种方式依赖于机器学习领域给出的数学和计算模型(尤其是2023年之后的大模型时代):在科技和商业领域,ai在工程中产出大量的代码,辅助各投资员做出决策;司法体系中也越来越广泛地使用“风险评估”软件来确定保释和假释;2023年末华为问界和24年初的特斯拉率先开启无图NOA,L3级自动驾驶已经触手可及;我们的贷款申请、简历和体检结果逐渐不再由人类负责评估。大模型时代,越来越多的人在致力于让世界(在象征意义上和字面意义上)——自动驾驶。

那么,随着用于解决复杂度的系统越来越“非人化”,越来越能灵活、实时、自动地做决策,我们越来越发现自己正处于一个尴尬的境地:我们召唤出一种力量,给它一组指令,希望它自主但又完全顺从,然后一旦我们意识到指令不准确或不完整,又手忙脚乱地阻止,以免用我们的智慧召唤出某种可怕的东西。

如何防止这种灾难性的背离——如何确保这些模型捕捉到我们的规范和价值观,理解我们的意思或意图,最重要的是,以我们想要的方式行事——已成为计算机科学领域最核心、最紧迫的问题之一。这个问题被称为对齐问题(the alignment problem)

不管怎样,我们未来一整个世纪很可能都在致力于建立、启动和维护各种智能系统。机器学习是技术问题,但越来越多地涉及到人类问题;人类、社会问题是政治的议题,但逐渐同技术密不可分。技术问题正在变得人性化、社会化和公众化。

2.谁来给AI立规矩?

基本上对科幻略有耳闻的人应该都知道著名的阿西莫夫机器人三大定律:

  • 机器人不得伤害人类或因不作为而使人类受到伤害。
  • 机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
  • 机器人必须保护自己的存在,只要这不违反第一定律或第二定律。

但靠这些显然不够,框架性的协议顶多可以稍微凝聚一些共识,为未来更细致的协议、法规奠定基础,但作用也就仅限于此了。

Q:谁有权利给AI立规矩
A:废话,当然是人了。
Q:谁能代表人?
A:Well,actually……🤓

在大模型造成真正的混乱之前,先出现问题的总会是与之多少有关联的人。如果给AI制定规则的人都是混乱的,又何来好的、完整的AI规则?

算法霸权、媒体霸权等词早已不再新鲜,算法霸权意味着算法系统不仅控制着大量数据处理和决策过程,还因其复杂性和技术性而具有高度的不透明性,算法的决策过程如同黑箱,其内在逻辑和偏见不易被发现和纠正——至少不易被使用其的人纠正。大模型时代,算法霸权的影响只会更加的严重和潜移默化。过去我们认为殖民主义者通过算法推送来达到控制新闻传播的目的,固然我们可以通过大量的推送来制造一个信息茧房,**但是这些信息最终的接受方式依旧离不开被动地灌输。**只要获取信息的渠道是顺畅的,那么稍微掌握一点点大脑和技术能力的用户就可以主动去接触其他信息而不被困住。

但是,大模型对于我们来说就很容易被认为是“独立来源”,由我们用户主动调用、主动提问并传播信息。如果大模型自我标榜为道德的、中立的、理性的(当然他们在多大多数时间看来确实是如此),那么想要准确判别是模型的输出是否存在道德与价值观风险(即是否塞了私货),其所需要的成本就大幅提高了,核验一条信息的难度也会随之增加。

这么想,美帝的出口管制法案和愈演愈烈的对于先进技术出口的限制导致的OpenAI和Google等巨头对于中国的主动封锁,反而对于中国培养自己的大模型体系算重大利好(毕竟Gemini大搞四色冰激淋的丑闻犹在眼前)。

3.谁来坐牢?

刘教授认为,无论是走“灌输”还是“学习”路线,自动驾驶汽车均可以随机方案或直接刹车加以解决。重要的是承担事故责任,而不是纠结于自动驾驶如何解决“电车难题”。当AI系统出现问题或造成伤害时,需要有明确的责任归属,这是在模型脱离了可解释层级之后要进行的底线式思考。

尤其对于深度学习大模型这种高级ai系统,由于其复杂性和黑盒特性,其决策过程往往对非专业人员来说是不透明的,即“脱离了可解释层级”。在这种情况下即使AI系统做出了错误的决定,人们也可能难以追溯原因或进行干预。面对复杂度高的工程问题,面对高度复杂、难以直接解释的模型时,我们必须预先设定一套基本的原则和框架,确保能够明确责任归属,保护用户和社会的利益(这就是法学和社会学的科研范畴了)。考虑到大模型未来对全世界的庞大潜在增量贡献,模型本身造成的责任应当通过某种保险机制由社会承担(因为模型所带来的也是社会的进步),而所需要的资金则可以由既有模型获益者与国家共同出资筹措。

4.对齐共识

在2023年大模型元年为节点之后,全世界对于大模型在对齐方面我觉得共识是比较小的。虽然大家表面上都在讲什么“不作恶”、“科技向善”之类的鬼话,但实际上各家都在构建自己的技术数据商业护城河,对齐表现上也各自有各自的花活。大模型领域是一个变化发展极快的,有大量未知待发现的领域,我们不知道scaling law什么时候过时,我们也不太能搞清楚所谓的具身智能到底什么时候可以代替人类。

AI要成为能每个人身边的生产娱乐工具,人的可用之器,必须达成物理世界(输入)->数字世界(输入)->数字世界(输出)->物理世界(输出)的闭环,我们在计科方面的进步要远快于社科方面的研究积累,人类又真的做好了面对AGI的准备了吗?