面对人工智能,何以为人——访北京大学新闻与传播学院教授胡泳

面对人工智能,何以为人——访北京大学新闻与传播学院教授胡泳

 

只有从哲学层面思考人工智能,我们才能决定到底哪些是可以要的,哪些是不可以要的,而不是仅从技术层面来思考,因为仅从技术层面是无法做出取舍的。

       随着人工智能的不断发展,各种大模型仿佛一夜间就席卷全球。人类已经进入人工智能时代。这不再仅仅是一个口号,而化作很多人的一种“信仰”。

  这股猛烈的人工智能热潮,正蔓延到各个行业和领域,四处扩散,攻城略地。人工智能必然会给经济带来翻天覆地的变化,也成为中央和各地产业规划的重中之重。

  不过,产业层面的扩张,并不必然可以消解人工智能本身可能带来的社会隐忧。到底怎样看待人工智能及其社会影响?对此,财新《中国改革》采访了北京大学新闻与传播学院教授胡泳。

从哲学层面思考人工智能

  财新:近期,你发表了多篇关于人工智能的学术文章和评论文章,为什么会关注这个话题?

  胡泳:关于人工智能,现在业界比较大的预期就是通用人工智能(Artificial General Intelligence),它能够在广泛的认知任务中与人类能力相匹配或超越人类能力。顾名思义,这一技术是通用型的。衡量以往的科技发展,很多技术并不是通用型的。人工智能是一种工具,却又不仅仅是一种简单的工具。目前,大部分人工智能还是为特定任务所设计的,尚未成为通用型技术,但是有此潜力。而且,它一定是多功能的技术,能够满足多层级的需要。这就是人工智能与一般技术的差异所在。

  互联网、电等都属于通用技术,为什么要把人工智能单独提出来?因为人工智能开始影响人对自身的定义。没有电,工厂等会停滞,生活会受到影响,但是,很难说电力会改变人性,会改变人之为人的思考。比如,什么是意识,什么是情感,什么是记忆,人与机器的关系到底是怎样的,对这些问题的回答和思考,都可能因为人工智能的出现而发生改变。今天在思考人工智能发展时,严格来说,所有的问题不只是技术问题,还是哲学问题。所以,我为什么关注人工智能,因为它涉及的是人的问题,是哲学的本质问题。

  基本的哲学问题可以简单概况为三个方面,一是宇宙是什么,二是人类作为一个物种,又是什么,三是从个体角度而言,我是谁。人工智能会影响到对这所有三个问题的定义和看法。过往,大家可能会觉得,普通人不需要思考这些哲学问题,交给哲学家去思考就可以,但是,随着人工智能的出现和发展,每个人都不得不面对、不得不去思考这些哲学性的命题,它与每个人息息相关,不仅影响个人的职业,还影响对自身的认知。可以说,机器智能正在改写人的智能,而且,以后每个人必然会与机器发生很多关系,无法避免。所以,每个个体都需要关注人工智能带来的一系列问题。

  财新:你是把人工智能放在人之为人、人类信仰等一些终极命题的角度予以思考,为什么要从这些角度审视人工智能?意义何在?

  胡泳:诺伯特•维纳在他的控制论著作中曾分析工业革命可能带来人脑贬值。虽然工业革命确实带来一些影响,但是,真正让人脑贬值的并不是工业革命,而是正在发生的人工智能革命。所谓人脑贬值,可以通俗理解为,人在什么程度上被机器替代,或者说在什么程度上机器智能可以打败人的智能,以及什么是人该做的,哪些又应该交给机器。这一定会是一个此消彼长的过程,人脑贬值就意味着机器增值。

  涉及这个问题,就必然要讨论究竟什么是真正的价值。如果还是在一般意义上讨论人的价值,恐怕已经很难,因为机器的记忆和处理能力比人类强大太多,几乎没有可比性,很多人类操控不了的工具,机器却可以,人会不自觉地认为自身比机器低一等,所以,这就需要重新界定价值。今天,如果要重估一切价值,其实,核心就是人的价值几何,尤其是与机器相比,人的价值到底又是什么。

  当我们讨论价值时,一定会有关于价值的排序,比如,什么是最重要的,离开它,人类就与机器没有区别。这又涉及核心的底层问题。比如,进化论造成类似的范式转移的,正是因为出现进化论,很多观念和看待事物的角度都发生改变。人类从猿猴进化到人,是一个很大的飞跃,人变成世界的主宰,那么,随之而来的问题便是,从人到智能机器,到底算不算进化?如果承认这也是进化的逻辑,那么,得出的一个结论可能就是,人类可以碾死蚂蚁,那么,机器可不可以用同样的方式对待人呢?如果你是纯粹的进化论者,这就是一个可以理解的逻辑,实际上,很多技术精英就是秉持着这样一种看法。

  人类演变过程中,其实已经抛弃了很多从前的看法,比如人类中心主义,但是,我们依然需要定义什么是人。一种说法称,人是会使用工具的动物,但是,大猩猩也会使用工具,另一种说法,人是会使用语言的动物,可蜜蜂也有语言,定义就变得极其困难。这也是人工智能时代要面临的,我也没有答案,大家都还在认识过程中。更要命的是,原来人类面对的是自然世界,现在要面对的是人造世界,比如,人类创造了算法,反过来又要直面它,这些变量加在一起,定义人是什么就变得更难了。其实,很多曾经以为天经地义的观点,被打破了。

  人工智能领域争论不休的一个话题是意识。很多人认为机器已经有了意识,包括一些业内高水平技术人才。从智力任务上看,比如围棋,人类确实已经无法战胜机器,不过,机器有情感吗,有情绪吗,也有各种争论。机器到底有没有意识,应该由谁决定?我们会发现,无论各种专家怎么解释,千差万别,信的人恒信,不信的恒不信,所以,在很大程度上,到底相信不相信机器有情感和意识,已经不是一个科学问题,而是一个信念问题。甚至,不客气地说,就连人工智能会不会彻底造成人类失业,也是信念问题,因为两方都可以给出不同的答案和论证。那么,我们相信哪一方?一旦将其归为信念,就是哲学问题了,因为从技术层面讨论不清楚。

  所以,只有从哲学层面思考人工智能,我们才能决定到底哪些是可以要的,哪些是不可以要的,而不是仅从技术层面来思考,因为仅从技术层面是无法做出取舍的。

  财新:如果简单概括你关于人工智能的基本观点或思考方向,可以总结成哪几个方面?

  胡泳:可以大致归纳为三个方面。第一,关于人工智能的应用。我非常反对人工智能的拟人化,这本来就是人类中心主义的体现。一如对自家的宠物,或者自然界的各种现象,人类很可能也会赋予机器以情感,但是,这也许会把人类带到一种很危险的境地。实际上,我们并不需要一个类人的机器,把人工智能当成助手就好,比如所谓的“3D劳动”(dirty, dangerous and difficult),即肮脏的、危险的和困难的劳动,或者可以加上重复性的劳动,这些交给人工智能就挺好,人与机器各得其所。一旦拟人化,造成人工智能发展的偏向,人反而丧失了应有的位置。

  第二,此前OpenAI的“宫斗”,是很狗血的剧情,成了全世界的焦点。少数人工智能的技术精英,他们享受着帝王般的关注,让人觉得可笑。人工智能如此重要的问题,最后把所有的“宝”都押到到几个顶尖的技术精英身上,这是很荒谬的。我们要反思的是,人类最终会不会成为少数人的牵线木偶?其实就是少数技术精英和资本,在决定着对人类影响深远和利益攸关的大事。政府规制和社会制约在哪里?

  第三,我自己的思想也在发生变化。早先,我认为技术是万变的,人的本性是不变的,人不断用新工具,解决老问题,比如,嫉妒、悲伤、愤怒,都是经久不变的。而现在我认为,随着人工智能的进展,技术有可能改变人性。尤其是如前边所说,人工智能已经开始涉及人之为人的问题。当然,现在还不能完全证明这一事实,需要一个漫长的证明过程,包括机器可能对人脑产生怎样的影响。如果考虑到不仅技术是变的,人性也是变的,那么,可预测的难度更会大大提升。

人工智能应成为公共议题

  财新:人工智能方兴未艾,甚至被视为新一轮科技革命的起点。在各方热烈拥抱人工智能的同时,也有企业家和学者明确表示了忧虑。在面对每一次大的科技发展时,这种纠结是不是总会出现?围绕人工智能所产生的争论,与以往面对科技发展的纠结,又有什么不同?

  胡泳:有相似之处,也存在一定差异。我的研究内容之一是传播,从传播角度看,诸如铁路、电报、广播、电视对社会的改变,尽管中间隔着很长时间,但人类对它们的定调,包括用词,非常类似。走过的轨迹也相似:起初公众都很狂热,认为乌托邦就要来了,新技术带来民主自由等等,对人类是解放性的。后来,逐渐地,公众又开始认为这些技术都是压制性的,它所带来的是专制,是更多的不自由不平等。

  一个很典型的例子,在本世纪初,全球化高歌猛进的时代,出现一种很重要的力量,这就是互联网,把世界拉平,甚至有畅销书称“世界是平的”。但是,后来的历史证明,世界不仅没有变平,而且更不平了,最新的发展,我称之为“飞地化”,东拼一块,西凑一块。全球化演变成反全球化或逆全球化。

  上述全球化的论调与现在的人工智能也很相似,我们往往会高估技术给人类带来的冲击,却会低估社会对技术发展的制约。或者说,就像一股洪流,总有人为其修建渠道,流向特定地方,而不是到处泛滥,而一旦需要将渠道整合到某一个方向,就可能涉及意识形态、文化等,这就决定了技术不可能随心所欲扩张,肆无忌惮生长。这些过往的经历,都在警示我们。

  有关高估和低估的另一种表述是,我们往往会在短期内高估技术的影响,而在长期内则低估技术的影响。比如,互联网的前瞻者们高估了互联网改变现状的速度。实际发展的情形是,现状来了,并将互联网殖民化。印刷机花了很长时间才彻底改变了社会,但它最后确实改变了社会。社会的变化比技术的变化要慢得多。

  不过,人工智能又有其特殊性。我们正在面临人类的终极技术或者说是终极机器。因为人工智能的加持,机器有了超人的智慧,哪怕它们也只是通用技术的一种,但不能仍视之为此前的通用技术,不能同等对待。人工智能对人的影响太大,需要将之变成公共议题,而不只是局限在技术领域。

  财新:面对人工智能,到底什么样的态度,才是更为理性的或者科学的?

  胡泳:我们必须要意识到技术有自身的偏见,在施加到个体时,你或许认为它是公允的,其实不是,背后实际体现出对不同人群的区别对待。大模型确实解决了人工智能的部分问题,也要承认它有一定威力,但是,训练大模型的数据必须公平,才能产生公平的结果,也就是要平等对待所有人。但是,如果这些数据从一开始就存在偏见,导致对不同群体的不公平对待,该怎么办?

  再比如,社会正推动大面积的人脸识别系统,虽然在某些方面可以带来便利,但是,也可能带来更多问题,造成更大的不公平,导致部分人群更弱势。人脸识别被滥用的现象已经不少,公众让渡生物数据,而这些基本的生物数据,一旦交出去,就不可能再拿回来了。如此庞大的数据,如果处于一种可能被滥用的情况下,怎么制约?有哪些防范手段?

  想象一下,人工智能大面积普及,用于招聘筛选人才,很多人可能都无法进入识别系统。本来由人类决策的内容,交给人工智能,而人工智能并不解释如何做出的决策,只通知结果。人类对社会发生的很多事情,丧失了知情权和控制权,变成系统中的一个棋子。

  所以,将人工智能作为公共议题,其核心就是,必须给出要走某一条路的理由是什么。如果有很多路径,那么,选择其中一条路,人类得到了什么,又丧失了什么,这是需要追问的。当只能选择一种路径的时候,一旦被系统排斥,我们又该怎么办?人不能完全失去自主性。

  财新:你担心人工智能会失控吗?一些科技人物甚至以公开信的形式提醒人工智能的风险,如何理解人工智能的“风险可控”?

  胡泳:风险也是分层级的。以电脑时代的搜索引擎为例,当用户搜索时,起码可以获得很多结果,用户从中找到自己最想要的那几条。而人工智能时代,与机器人聊天,不再显示搜索结果,反馈的只是一个机器人认为它应该提供给你的结果,而且,没有原始网页,无从分辨信息的真伪或者质量。这就是所谓的低层面消除更多选择性的一个例子。

  很多本来应该属于人类做出的决策,现在交给机器,比如机器参与市场交易,或者人工智能应用于医疗。终极结局就是机器自主决策。有些方面肯定是机器更有优势,但有些方面则不一定,比如事关人的复杂性或微妙性的情况,交给机器可能造成很多不可逆的后果。尤其是涉及生命时,如果使用人工智能武器杀人,人类只要给机器下了指令,就可以直接投放给敌对人群。杀人武器的智能化很可能造成人类生死存亡的灾难。

  随着我们将更多决策交给计算机,我们发现人类的选择减少了。多样性不再是生活的调味品。我们会到达这样一个阶段:重要的决定由计算机来作出。通过扩大和加速由计算机而不是人类做出决策,我们面临着推动社会在一系列问题上走向平均的风险。

  人工智能越是普及,越应该加强通识教育

  财新:你曾撰文提到,人工智能恐慌影响的第一个地方是教室。你能感受到的现在人工智能对教室或学生的影响,主要体现在哪些方面?人工智能与教育,到底是怎样的关系?

  胡泳:对于人工智能在教育领域的应用,大家目前的恐慌主要集中在两个方面,一是作弊,怎么识别作业是否依靠大模型撰写,一是考试,如果大模型都能考过,会对考试和评估形成压力。这两点对教育的冲击很大,将影响老师和学校到底该怎样判定一个学生。对于这样的挑战,简单粗暴的操作方式就是禁,但是,禁肯定不奏效,长期也禁不了,毕竟它对学生的诱惑力太大了。

  不如反过来思考,人工智能可能带来什么好处?从一个完全不同的角度看教育,这反而给我们一个警醒:原来的教育模式本来就存在问题。

  人工智能和教育的关系,可以从三个方面展开。第一,以人工智能作为一种工具来帮助我们的教育。我们可以借助人工智能更新教学手段,比如,把一个对话式的机器人引入到教室,然后跟学生产生一些以往不可能产生的互动。第二,至少对年轻一代来说,需要学习人工智能,因为这变成必备的一种本领。第三,需要为人工智能的未来做准备,上述前两个方面可以称之为“技术层面”,这第三个方面则可以称之为“人的层面”。人工智能本身可能有各种各样的偏见,或者说歧视,又或者可能涉及伦理问题。因此,迫切需要提高人工智能素养。

  财新:面对人工智能时代的来临,教育要有怎样的反思?要做哪些调适?

  胡泳:《纽约时报》专栏作家大卫•布鲁克斯 (David Brooks)写过一篇文章《在人工智能时代,主修“为人”》(In the Age of A.I., Major in Being Human),提出在人工智能时代主修的专业是“为人”,也就是怎么做一个人。如果人工智能可以代替很多工作,很多知识性或者技术性的都可以通过人工智能获得,还剩下什么工作留给个人呢?只有那些更核心的人之为人的内容,人工智能难以达到。布鲁克斯列举了一些人之为人的层面,诸如创造力、协作能力、批判性思维。其实,核心还是怎么区分人与人工智能。

  如果说此前的教育是重视技能和知识,那么,人工智能时代则需要加强内核。机器的特点是预测,做到不被机器预测的前提条件,就需要有一个特立独行的世界观。所以,我认为通识教育很重要。现代大学体制最主要的产出其实是研究,目前衡量教师的主要标准依然是研究,也就是论文,这是为了应对工业革命后对专业劳动力的大量需求。大学起源本来注重的是人文,由于工业革命的发展,需要大量成熟的专业劳动力,所以,专业技能重要性提升,人文不断被边缘化。在“主修为人”的理念下,通识教育应该大大加强。社会越技术化,人工智能越是普及,越应该加强通识教育。不受束缚的人工智能,其实是挺可怕的。

人工智能时代的平台经济

  财新:随着互联网的兴起,尤其是平台的壮大,人类加速迈入数字化时代。那么,人工智能的出现,尤其是各大平台也相继推出大模型,你认为,未来可能给数字化时代带来哪些新的变化?会对现有数字化格局造成哪些影响?

  胡泳:现有数字化格局并不是人工智能带来的新现象,而是与移动互联网的发展密切相关。随着移动互联网格局的形成,各大平台并存的模式也逐步确立。平台经济崛起之后,互联网经济基本就成了平台把控的局面。

  从市场经济角度看,平台经济具有无限扩张性。起初是依托某些商业模式兴起,比如有的依靠搜索,有的依靠数字广告,各有自身核心业务,但是,平台一旦兴起,又有无限扩张性,很容易吞噬掉相邻领域的业务,变成服务综合体。大平台几乎涵盖数字经济的所有层面,就像一张大网,罩住数字经济。

  所以,平台可以快速占领新兴市场,任何一种新的业态出现,基本都是平台率先进入,抢占先机,因为平台既有资本、技术、人才,还有大量的用户和消费者,又具备营销能力,几乎无所不有,无所不能。以云计算为例,首先是平台做起来的,国外的亚马逊、谷歌、微软,国内的阿里、腾讯、华为等,这些巨头基本瓜分了云市场,然后出现元宇宙等,其实还是这几家,人工智能也差不多。而且,面对人工智能,这些平台还可能动员更多资源。所以,人工智能时代的平台经济,基本还是延续并巩固了原来的数字经济格局。

  另一方面,平台基本都是靠数据起家,也可称为“数据炼金术”。原来的平台“数据炼金术”主要是靠自身积累的数据,现在的人工智能则不仅依靠自身的数据,而是把全网数据作为数据训练,这就相当于平台的数据王国还在不断扩展。可以说,平台很难自我调节的,更不会自我限制,最终的结果就是不断强化既有平台的规模和模式。所以,人工智能时代的平台经济肯定不只是技术或者商业问题,也是一个政经问题。

  财新:平台的不受限,可能带来哪些后果?在人工智能的狂飙跃进之时,是否已经出现部分端倪?

  胡泳:还是以云计算为例,云计算可以服务千行百业,所有大模型的运算或者人工智能发展,都要依靠云服务,如果已经是云服务巨头,那么,就很有可能成为人工智能的巨头,因为二者有很大的关联性。而这些大模型发展的目的也是为了服务千行百业,平台的无限扩张性会体现得淋漓尽致,最后很可能就是苹果应用商店模式的翻版。对移动应用,苹果公司具有充分话语权,不符合规格就要下架,而对于在其上的APP来说,相当于没了入口。

  平台经济其实是反经济的。在原来开放的互联网环境下,并没有这种“一夫当关,万夫莫开”的关口。应用程序的设计,部分是为了弥补基于移动网络访问的各种缺陷。虽然它可以提供高效的和用户友好的体验,但是,移动应用程序模式代表着一个比万维网更加不开放的互联网生态系统。例如,主要的应用程序商店(无论是iTunes App Store还是Google Play)发挥着强大的把关作用,而万维网中的内容和应用程序却可以绕过中介机构。这是内容和应用传播上的一个根本变化。

  APP属于红海,企业不得不做,而要想在红海中脱颖而出,就必须营销,营销费用也是平台收取。本来,平台是作为基础经济,尤其是大量中小企业在平台上运作,基础经济应该收取的是基础服务费用,而不是无穷无尽榨取企业的各种价值。一旦捕食者最后也无食可补,就意味着这个生态是有问题的。基础经济企图捞取超额利润,结果很可能就是生态瓦解,涸泽而渔,彻底破坏了生态系统。

  所以,从过往的互联网发展路径推演未来人工智能时代的可能局面,上述的平台现象极有可能在人工智能层面再次重演。

  财新:外部规制能改变这种发展路径吗?

  胡泳:美国一直有反垄断传统。世纪之交,微软垄断问题闹得沸沸扬扬,当时拆分微软的呼声也很高。但是,多年之后再看,众多平台巨无霸中,微软受到的反垄断威胁很小,因为它的业务已经多元化,反而是业务相对集中的平台,面临强势监管。监管强势,或者说社会反弹到一定程度,即便大型科技公司未必被拆分,其扩张势头也可能在一定程度上会得到遏制。

  这些平台公司在技术初创期可以恣意发展。但是,发展到一定程度,强势监管对它们未必完全不利,甚至一些平台还主动呼吁加强人工智能监管。例如,谷歌就表示,人工智能太重要了,不监管不行,而且监管不好也不行。

  在许多方面,人工智能已经受到监管。欧盟的《人工智能法案》有大量自上而下的规定性规则,包括禁止使用它认为会带来不可接受风险的人工智能;中国也规定,算法必须事先经过国家审查,并“应坚持社会主义核心价值观”。美国则采取了典型的去中心化做法,最有可能的结果是行政部门自下而上的拼凑行动。与欧洲不同,美国不太可能在未来几年内通过一项广泛的国家人工智能法。成功的立法很可能集中在争议较少和有针对性的措施上,这会令支持制定强有力的国家人工智能法规的人感到失望。这种结果会更混乱,也会有漏洞,但是,没有广泛的国家法律并不意味着没有监管。在美国,我们很可能会看到针对特定领域的机构行动,尤其是在医疗保健、金融服务、住房、劳动力和儿童安全方面,此外还有多项行政命令。如果执行得当,这些拼凑起来的规则将以特定机构的专业知识为基础,也许更加适合创新。

  财新:平台时代的信息茧房、情绪传播或圈层文化,已经十分明显,甚至在不同平台上,人们对于某一问题的看法,都有较大差异,出现各自鲜明的特点。人工智能会不会进一步强化这一现象,或者出现更为严重的难以预测的后果?

  胡泳:信息茧房、情绪传播等是社交媒体所带来的问题,要反思社交媒体发展路径。不乏论者指出,社交媒体创造了一种欺骗、自恋和绝望的环境,根本不是社交。本来起点可能是良性的,但走着走着就变味了,出现很多怪象乱象。无论是流量至上,还是共识丧失、社会撕裂,其实都与社交媒体的发展有一定关系。

  这就引申出一个关键问题,当前的互联网是不是需要改写底层逻辑,或者说重建互联网。目前的流量游戏,让各方欲罢不能。大家都有利益诉求,玩同一个游戏,也就一定会有赢家,而赢家会进一步推动沿着既有方向不断强化,但是,负面影响或者受影响人群也在急速扩大。互联网的发展态势,也可以从话语转变中管窥一豹:早期提到互联网,多会联想到一些比较理想化的词汇,诸如自由、平等、民主化,而现在谈的更多的是隐私、安全、垄断等消极词汇。这也反映出社会上对互联网的看法发生很大变化。只不过,这种认知的变化能在多大程度上改写互联网底层逻辑,就是未知数了。因为既有的利益群体过于强大。

  总之,底层逻辑不改写,所有问题都会存在,而且,随着人工智能时代的到来,上述问题还可能进一步加剧。人工智能算法的广泛使用,尤其是根据用户之前的在线活动向用户推荐内容和产品的算法,导致回声室效应越来越大,限制了在线呈现给用户的信息,促使他们只阅读与他们的人生观和意见产生共鸣的内容。在这种信息茧房中,用户只会听到能强化自己观点的声音。可以预期,人工智能驱动算法的广泛应用将会继续减少对意识形态各异的新闻、观点和朋友的接触。

  数据不再只是生产资料,更成为一种权力

  财新:训练数据是大语言模型能够获得生成、推理、预测等能力的基础。不过,更多的数据,更大的模型,并不意味着更好的结果。为什么会出现对数据规模的迷信?这一迷信可能导致什么危害?

  胡泳:由大语言模型引领的非监督性深度学习浪潮,一个核心议题就是训练数据。一味追求训练数据的规模和质量,最终演绎成“万模大战”形势下的“数据为王”法则。各大科技公司如同军备竞赛一般,不断公布着基于更多训练数据的更大的语言模型,仿佛训练数据是一种永生资源,永远没有被消耗殆尽的那一天;而只要数据规模和参数规模与提高模型性能成正相关,这场军备竞赛就永远不会停歇。

  在训练数据的价值、功能和误读的背后,是对数据概念的改写、对数据可供性的迷信和对数据所有权的争夺。实际上,这场人工智能革命的潜在危险正在伴随着误读而发生。比如,训练数据并非不可耗尽。这些训练数据,在大多数情况下,均不加区别地来自开放的互联网。科技公司对训练数据的贪婪,还体现出对训练数据的另一种误解:数据规模其实并不是优化模型的万能灵药。

  如果说今日平台的偏见生产来自算法茧房、情绪传播和圈层文化,那么,生成式内容所产生的偏见不仅通过训练技术复制了互联网时代的窠臼,更因为机器编码霸权造成语言的滥用和“数据茧房”的产生。一轮又一轮的数据套娃式训练模式下,人工干预让位于机器学习的内容生产方式,毫无疑问更加凸显其封闭性,伤害和风险也就这样不断自动生成。

  事实证明,“最好的数据就是更多的数据”的数据迷信已经破灭,更大的模型并不意味着更好的结果。训练数据和大语言模型需要破除规模的迷思,更多地思考如何让数据切实成为社会技术系统的一部分。

  财新:你曾明确提出,在训练数据作为未来人工智能发展范式的模型底层基础的前提下,平台的力量还将表现为“数据力量”,数据不再只是生产资料,更成为一种权力。当平台不断强化作为权力的数据时,可能出现怎样的局面?

  胡泳:今天我们讨论数据时,已经不存在一种“纯粹”的数据概念,所有进入话语层面和实践层面的数据,其实都是为平台、政府和机构所用的具有高使用价值的生产资料。作为生产资料的数据,在现行的平台经济模式中呈现出排他性、竞争性的特征。

  有一种观点认为,数据具有公共性、共享性,不能为特定主体所占有,然而,在真实的市场环境中,数据正在为不同的平台所独享,而造成这一情形的原因则来自今日平台特定的商业模式和可用数据背后的高成本。

  也正是因为今日数据的排他性,以及维护数据所需要的必要财力和技术基础,既有平台格局呈现出极其不均衡的分配状况,数据,尤其是掌握在具有市场垄断地位的大平台手中的高质量数据,已然构成了相当强大的竞争壁垒。

  可悲的是,以数据为主导的网络效应和以占有数据专有权为手段的垄断模式,并不会随着大语言模型新机会的到来而得到改变,相反,这场人工智能游戏依然以数据为筹码,能够进入牌桌的还是往日的科技寡头,甚至,玩家规模会进一步缩小。

  缺乏高质量数据储备量和获取入口的市场主体,要想与高质量数据拥有者展开竞争,要么通过支付高昂对价或合并收购获取新鲜数据流(而这对于初创企业几乎是天方夜谭),要么被迫接受其提供的产品或服务被击败的残酷事实。所以,在平台严守数据的前提下,平台公共性肯定会进一步削弱。这也就是我为什么说平台的力量将表现为“数据力量”,数据不再只是生产资料,更成为一种权力。

  围绕这一权力,未来的趋势将是各家平台阻碍数据跨平台转移、加剧数据集中,直至形成难以打破的数据垄断。

 

本文转自于   财新网

以上内容(如有图片或视频亦包括在内)为自媒体平台“才汇云网”用户上传并发布,本平台仅提供信息存储服务。
0条评论
评论