凸子尘报:柯文哲、Altman 和 Instability
This weekend is broken by two news. In Taiwan, Ko P broke the deal with KMT on joining forces in the upcoming election, for a dispute on how to interpret statistical data. In California, the four members of five-member board at OpenAI fired Sam Altman, its founder and CEO, due to their concern of the technology's safety over utility.
说说这个周末的两件娱乐价值超高,对人类的未来可能影响巨大的事件。一件事,可能给台海局势增添了巨大变数,甚至可能给欧亚板块上再添一处战火。另一件事,让AI热潮中的人们快速冷静下来,关于AI安全的担忧变得触手可及了。
第一件,统计学让民众党国民党临近破局。
这周末,台湾2024竞选进入白热化阶段,蓝、白、绿三党角逐总统职位,引发社会广泛关注。然而,与以往大选不同的是,这一次蓝、白两党决定联合竞选,但却因统计误差的不同理解而在总统、副总统人选上产生争议。
蓝、白两党原本打算携手共进,通过民调解决联合竞选的总统和副总统人选。民众(白)党候选人柯文哲在考虑自身小党人员和资源有限的前提下,愿意让出民调的统计误差。这一机制旨在通过公正客观的手段确定最适合领导台湾的人选。然而,当民调结果揭晓后,柯文哲却对统计误差的理解提出异议,使整个选举进程陷入了一场数学博弈。
对于符合时间条件的九项民调结果,有三项仅限于单一渠道(市话或短信)而被剔除。剩下六项民调中,按事先约定的民众党柯文哲让出统计误差的条件,统计误差应为常见的Confidence 95% 抽样约1000人的 ±3%,双方各3:3平手。于是白方提出统计误差±1.5%(Confidence 84% ,1000人 ), 5:1柯-侯胜。而蓝方提出统计误差±6.0%(Confidence 几乎100% ,1000人 ), 5:1侯-柯胜。按原本约定这是争执的蓝白双方的差异。
据说这个周末的台湾人都在翻查统计课本或者在Google统计学知识了。但这一争议让我想到书数学之外的现实。在一个数学水平普遍较高的台湾社会,人们会以精确的数理逻辑来争论政治议题,而不是以通用合理的方式解决分歧。台湾人的数学功底当然扎实。然而,在这种数学分析的光环下,却揭示出由高知识水平带来的高争议性。
虽然台湾人的数学水平令人瞩目,但在政治决策上仍然难以达成共识。这或许是因为,政治决策涉及更多主观因素,而数学本来就不是解决政治问题的有效手段。人们在运用自身数学知识时,可能受到个人立场和党派观念的影响,使得对同一组数据的解读产生截然不同的结论。
这一事件引发的思考是,尽管社会普遍具备高水平的数学素养,但在政治问题上仍然面临着在短期内达成稳定共识的困境。在这种情况下,建设一个真正稳定成熟的民主体制,也许要更长的时间和耐心。短期内,高知识水平的社会可能因对于细节的过度关注而导致政治决策的波动,需要更多的沟通和理解,以建设一个更加和谐、公正的社会。
第二件,AI道德使董事会管理层事实分野。
美国时间周五,OpenAI公司的CEO Sam Altman意外被董事会解雇,引发业内广泛关注。据悉,解雇的原因是Altman坚持将公司主力集中在继续开发更强大竞争力的AI工具。而与之不同的是,以非盈利为目的的董事会认为,公司应当立即集中精力提高AI安全性方面的技术开发。这一决定让业界陷入对AI未来发展方向的深刻思考。
Sam Altman一直以来是AI领域的杰出领导者。作为OpenAI的创始人和CEO,他的愿景和决心使得OpenAI在推动AI技术发展方面取得了显著成就。然而,与董事会的分歧使得他在不知情的情况下被开除。Altman主张持续推进更强大的AI工具的开发,在他的4年的掌舵下,OpenAI 将生成式AI工具从GPT-2.0带进4.0的阶段。Chat-GPT 的面市,也给世界带来了一轮大模型热潮。他看到AI技术的巨大潜力,相信通过不断创新可以为人类带来更多福祉。
然而,由乔治城大学科学家、Quora CEO等组成的董事会的决定,体现了对AI技术安全性的极度担忧。董事Helen Toner本人就是乔治城大学新技术安全中心的主任。董事会认为,在追求更强大的AI同时,必须更加注重防范潜在的风险,确保AI的发展不会对人类社会带来不可逆的伤害。正是这个原因,让如日中天的Altman在不知情的情况下,突然被通知离职。
然而,Altman的离任可能带来公司内部的不稳定因素。据悉,有高达40%的员工在考虑离职,在不安的氛围给公司带来了极大的压力。在这一背景下,董事会正考虑将Altman请回来,但可能是临时的或者兼职性的,因为Altman已经在考虑退出一个新的AI创业项目了。Altman是由临时CEO Mira Murati请回公司总部和员工见面的。这看来是对公司稳定的一种应急之策,以期缓解员工的不安情绪。
这一事件映射出AI领域目前所面临的一种困境:是继续追求技术的极限,还是在技术发展的同时确保其安全性?这并非是一道简单的选择题,而是需要在技术、伦理和社会责任之间取得平衡的复杂议题。在Altman离任后,OpenAI将进入一个新的发展阶段。人们对于新任领导者的期望以及公司未来的发展方向,都充满了疑问。但很清楚的是,AI技术的安全性问题,不仅仅是谁来领导某个公司,而是以什么样的、清晰的原则来指导所有的AI发展。AI不是核武器,它比核武器的毁灭性更大。
民主与AI:人类社会的高度不稳定性
台湾年轻的民主制度和AI技术的高速发展成为全球焦点。这两者在表面上可能看似独立,但它们的交织,标志了人类社会进入了高度不稳定的时刻。从社会组织方式到技术发展角度,人类社会正必然经历一场全面的变革。
首先,台湾年轻的民主体系正在经历一场考验。虽然年轻,但台湾的民主制度一直被认为是充满活力。然而,近期的政治纷争表明,年轻的民主体系可能更容易受到各种挑战和压力。一个拿不到简单多数支持的政党,居然能合法地一党执政。这使得我们必须重新审视民主制度的弹性和适应性。
与此同时,全球范围内AI技术的高速发展也给人们带来了新的挑战。随着自动化、人工智能和大数据的普及,我们看到了社会结构、劳动力市场和隐私安全等方面的深刻变革。AI技术的迅速渗透正在颠覆传统的经济和社会模式,这不仅带来了无限的创新可能,同时也催生了新的不确定性和安全隐患。
全球社会正陷入一种前所未有的不稳定期。民主体系面临的挑战,不仅在于台湾今天的大选,疫情期间的社会混乱还历历在目。人类需要重新思考传统的治理方式,以更好地适应当今快速变化的社会需求。AI技术的高速发展,更迫使我们审视技术对社会管理制式的影响,确保其发展方向是符合人类共同利益的。
在尤瓦尔赫拉利的洞察中,人类之所以能成为地球上最为成功的物种,乃因我们有能力在虚拟故事的基础上构建共同价值观,并以此作为协调和管理上亿人活动的动力。然而,如今随着社会现实高速发展,旧有的故事体系愈发显得不适用。台湾年轻民主所面临的尴尬,以及AI发展中的技术和安全的矛盾,也正是现阶段人类社会矛盾的缩影。或许人类能够找到全新的故事体系,从而构造更为协调、可持续的未来。
赫拉利认为,在新的体系之下,国家作为旧的故事体系的核心概念,也许已经不复其合理性了。