宇宙大爆炸之后,“碳基人”主宰着地球;
元宇宙的将来,“硅基体”或控制着世界。
几十亿年前,碳、硅等元素一直存在。1787年,法国化学家拉瓦锡首次在岩石中发现硅元素,为硅基材料的探索奠定基础。一百年后,1891年,德国波茨坦大学天体物理学家儒略申纳(Julius Sheiner)首次探讨了以硅为基础的生命存在的可能性。
AI诞生与晶体管起源(1940年代-1950年代)
1940年代,硅晶体管的发明开启了电子设备的硅时代。这一时期的硅技术为后来的计算机和AI研究奠定了物理基础。1950年代,人工智能的概念首次被提出,而硅晶体管的商业化生产为AI的发展提供了可能。图灵测试成为了评估机器智能的第一个标准。
1943年:美国神经科学家麦卡洛克(warren mcculloch)和逻辑学家皮茨(water pitts)提出神经元的数学模型,这是现代人工智能学科的奠基石之一。
1947年:晶体管发明
贝尔实验室的肖克利和巴丁发明了第一台晶体管。这一发明标志着现代计算机的诞生。随后的几十年间,硅技术得到了迅速发展,晶体管的尺寸不断减小,集成电路的密度不断提高,使得计算机变得更加强大、更加便宜。
1950年:图灵测试标准
英国数学家艾伦·图灵Alan turing发表《puting machinery and Intelligence》(计算机器与智能)论文,首先提出了“机器能思考吗”。科学家们开始思考如何让机器产生智能。图灵测试,是作为判断机器是否能够展现出与人类相似智能的标准。
1950年:美国数学家、工程师和密码学家克劳德·香农(claude Shannon)提出计算机博弈,尝试找到最优策略。香农因此被称为“信息论之父”。
1953年:Ibm推出Ibm 701型计算机,这是其第一台商用电子计算机。
1956年:“AI”术语提出
John mccarthy、marvin minsky 等人在达特茅斯会议上首次提出了“人工智能”这一术语,标志着AI作为一个独立研究领域的诞生。
1957年:Frank Rosenblatt 发明了感知器,这是第一个能够学习权重并进行简单模式识别的机器学习算法。
1958年:集成电路Ic诞生
杰克·基尔比和罗伯特·诺伊斯独立发明了集成电路,将多个晶体管集成到单个硅片上,极大地提高了电子设备的密度和性能。
AI起步与硅的商业化(1960年代)
1960年代,集成电路的发明极大地推动了计算机的小型化和性能提升,为AI的早期研究提供了强大的计算能力。在这个时期,第一个AI实验室成立,研究者开始探索如何让机器模拟人类智能。
1964年:美国计算机科学家daniel G. bobrow开发出StUdENt计算机程序,用于解决数学问题。StUdENt能够独立思考和解决问题,而不是仅仅根据预先编写好的规则执行任务;但只能解决一些相对简单的问题,并且在处理更复杂的问题时往往表现不佳。
1964年:Ibm推出了System\/360系列计算机,这是一系列兼容的大型主机系统,成为了计算机行业的标准。
1965年:AI威胁论先驱者
英国数学家和计算机科学家古德(I. J. Good)发表重要文章《Speculations concerning the First Ultraintelligent machine》(关于第一台超级智能机器的猜想),提出了人工智能未来可能对人类构成威胁,可以算“AI威胁论”先驱。古德警告称,一旦超级智能机器出现,可能会引发“智能爆炸”的现象。
1965年:“摩尔定律”提出
1965年,美国物理学家戈登·摩尔提出了着名的摩尔定律。该定律预测了集成电路上的晶体管数量将每隔约两年翻一番,这意味着芯片上的晶体管数量将呈指数级增长。
1966年:聊天机器人出现
德裔美国计算机科学家Joseph weizenbaum在麻省理工学院开发了ELIZA程序,一个能够模仿人类心理治疗师的聊天机器人,可以实现简单的人机对话。
1966年:美国计算机协会设立图灵奖,专门奖励那些对计算机事业作出重要贡献的个人。
1969年:美国麻省理工学院教授marvin minsky 和 Seymour papert 发表了《perceptrons》,指出了单层神经网络的局限性,导致神经网络研究的暂时停滞。
AI反思与微处理器时代(1970年代-1980年代)
1970年代,微处理器的出现进一步加速了计算机技术的发展,为AI研究提供了更强大的计算工具。这一时期,美国斯坦福大学dENdRAL和mYcIN等早期AI专家系统开始在特定领域取得成功。1980年代,硅技术的进步带来了个人电脑的普及,同时,神经网络研究因硅计算能力的增强而得到复兴。
1971年:微处理器的问世
英特尔Intel发布了第一款商用微处理器Intel 4004,它是基于硅的集成电路,为个人计算机的诞生奠定了基础。
1973年:日本早稻田大学成功制造出了第一个人形机器人,名为wAbot-1。这个机器人被认为是世界上第一个能够走路和操作物体的人形机器人之一。
1974年:哈佛大学paul werbos 博士论文《beyond Regression: New tools for prediction and Analysis in the behavioral Sciences》(超越回归:行为科学中的预测和分析新工具),提出了反向传播算法的初步概念,为后来神经网络的训练奠定了理论基础。
1975年:4月4日,比尔·盖茨(bill Gates)和搭档保罗·艾伦(paul Allen)一起创立了微软(microsoft)公司。微软最初专注于为个人计算机开发基于微处理器的软件,如bASIc解释器等
1975年:麻省理工学院马文·明斯基(marvin minsky)的论文《A Framework for Representing Knowledge》(知识表示的框架)提出了用于人工智能中的知识表示学习框架理论。
1976年:美国斯坦福大学肖特利夫(Edward Shortliffe)等人完成了医疗专家系统mYcIN的开发。mYcIN是一个用于诊断和治疗感染性疾病的专家系统,帮助医生诊断细菌感染,并推荐适当的抗生素治疗方案。mYcIN是早期医学领域成功应用人工智能技术的代表之一。
1976年:Apple I电脑问世
4月1日,苹果公司创始人史蒂夫·乔布斯和史蒂夫·沃兹尼亚克推出了苹果I个人电脑,这是第一款用于个人使用的预装操作系统的计算机。
1979年:美国计算机科学家和国际象棋大师汉斯·贝利纳的计算机程序“belle”战胜双陆棋(checkers)世界冠军马尔文·莱文,标志着计算机在一个相对复杂的棋类游戏中战胜了人类世界冠军。
1980年:美国卡内基梅隆大学(cmU)举办了第一届机器学习国际研讨会,标志着机器学习研究正式在全世界范围内兴起。
1981年:美国机器人学家保罗·保尔(R. p. paul)出版了第一本机器人学课本《Robot manipulator: mathematics, programming, and control》(机器人操纵器:数学、编程与控制)。这本书标志着机器人学科正式走向成熟阶段。
1982年:美国物理学家约翰John hopfield 提出了霍普菲尔德网络,这是一种能够存储和回忆模式的神经网络模型。
1984年:“AI之冬”警告
人工智能领域的专家们在美国人工智能协会(AAAI)会议上警告称,人工智能领域可能会进入一段“AI之冬”(AI winter)的时期。AI之冬指的是人工智能研究陷入低谷的时期,投资资金减少,研究活动减缓,甚至出现了人才流失的情况。
1985年:图灵奖得主、加州大学洛杉矶分校教授朱迪亚·珀尔(Judea pearl)提出了贝叶斯网络(bayesian network)的概念,这标志着概率方法在人工智能领域的应用迈出了重要的一步。
1986年:麻省理工学院mIt AI Lab主任罗德尼·布鲁克斯(Rodney brooks)发表了论文《A Robust Layered control System for a mobile Robot》(移动机器人鲁棒分层控制系统)。标志着布鲁克斯提出了一种新的机器人控制方法,被称为“行为式机器人学”(behavior-based robotics),也被称为“鲁棒分层控制系统”。
1986年:Rumelhart, hinton和 williams三位科学家合着《Learning representations by back-propagating errors》(通过反向传播误差学习表示),重新发现了反向传播算法,并将其应用于多层神经网络的训练。
1989年:美国达特茅斯学院乔治·赛本科(George cybenko)证明了“万能近似定理”(universal approximation theorem)。证明了多层神经网络具有强大表达能力,根本上消除了当时对神经网络表达能力的质疑。
AI复兴与硅的革命(1990年代-2000年代)
1990年代,互联网的兴起和硅基计算技术的飞速发展为AI研究提供了大量数据和计算资源。机器学习和数据挖掘开始成为AI研究的重要分支。2000年代,随着硅基计算能力的极大提升,深度学习技术开始崭露头角,特别是在图像识别和语音处理等领域取得了显着进展。
1993年:pentium处理器推出
英特尔Intel发布了pentium处理器,它采用了超标量架构,大幅提升了计算性能,支持了更复杂的软件和AI应用。
1997年:Ibm的深蓝(deep blue)计算机在国际象棋比赛中击败了当时的世界冠军加里·卡斯帕罗夫(Garry Kasparov),这一事件被视为人工智能在复杂策略游戏中取得的重要突破。
1998年:万维网联盟的蒂姆(tim berners-Lee)提出了语义网(Semantic web)的概念。语义网的核心思想是通过为万维网上的文档添加可被计算机理解的语义信息(元数据),从而使得整个互联网成为一个基于语义链接的通用信息交换媒介。
1999年:英伟达发布第一款GeForce图形处理器 - 英伟达发布了GeForce 256,这是世界上第一款集成了图形处理和几何运算功能的图形处理器单元(GpU),开创了现代图形处理器的先河。
2001年:美国加州大学布雷曼博士提出了随机森林(Random Forest)算法。通过将多个有差异的弱学习器(通常是决策树)进行bagging并行组合,来提高整体模型的泛化性能。
2003年:Google推出了AdSense,一个基于机器学习的广告系统。同年,Google公布了3篇大数据奠基性论文:非结构化文件分布式存储(GFS)、分布式计算(mapReduce)及结构化数据存储(bigtable),奠定了现代大数据技术的理论基础。
2000年代:多核处理器出现
Intel于2005年推出了首款商用多核处理器,即Intel core duo处理器。Amd在2007年推出了其首款商用多核处理器,即Amd phenom x4处理器。多核处理器技术的发展使得单个芯片上能够集成多个处理核心,大幅提升了并行计算能力,对AI和机器学习算法的发展尤为重要。
2005 年:波士顿动力公司推出一款动力平衡四足机器狗“bigdog”。
2006年:华裔科学家李飞飞(Fei-Fei Li)开始研究ImageNet视觉数据库。ImageNet是一个庞大的视觉识别数据库,包含数百万张标记图像,涵盖了各种不同类别的物体和场景。
2006年:“深度学习之父”、加拿大多伦多大学教授杰弗里·辛顿Geoffrey hinton和他的学生提出了“深度置信网络”(deep belief Networks,dbN)的模型,特别是对无监督预训练的发现。
2007年:苹果发布了首款iphone,标志着智能手机的兴起,为移动智能应用的发展提供了巨大的推动力。
AI爆发与硅的无处不在(2010年代-至今)
2010年代:智能手机和云计算的普及使得硅技术无处不在,AI开始进入日常生活的方方面面。深度学习在图像识别、自然语言处理等领域取得了巨大成功。2020年代:硅基量子计算的探索和AI技术的不断进步预示着一个全新的计算时代。AI在医疗、自动驾驶、智能家居等领域的应用不断拓展,成为推动社会发展的重要力量。
2010年:谷歌推出无人驾驶汽车项目,标志着自动驾驶技术进入了实际应用阶段。
2011年:Ibm的watson在《危险边缘》(Jeopardy!)节目中击败了人类冠军。
2012年:计算机科学家Alex Krizhevsky、IIya Sutskever和Geoffrey hinton开发的基于深度学习的卷积神经网络模型AlexNet在ImageNet计算机视觉挑战赛中取得了显着成果。
2013年:Google推出了tensorFlow,一个开源的机器学习框架。
2014年:生成对抗网络(GAN)被提出,开启了生成模型的新篇章。
2015年:openAI创立
马斯克等人共同创建非营利研究组织openAI。其使命是确保通用人工智能(一种高度自主且在大多数具有经济价值的工作上超越人类的系统)将为全人类带来福祉。
2016年:英伟达将世界上第一台AI超级计算机dGx1交付给初创的openAI。
2016年:谷歌提出了联邦学习(Federated Learning)方法。这种方法旨在在多个持有本地数据样本的分散式边缘设备或服务器上进行模型训练,而不需要将数据样本发送到中心服务器进行训练。
2016年:AlphaGo战胜围棋世界冠军
deepmind公司开发的人工智能程序AlphaGo以4比1的比分击败了围棋世界冠军李世石。
2017年:Google团队发表论文《Attention Is All You Need》(注意力就是你所需要的一切),介绍了基于transformer的深度学习架构。
2017年:中国香港的汉森机器人技术公司(hanson Robotics)开发的类人机器人索菲亚成为历史上首个获得公民身份的机器人。
2018年:Google提出bERt模型(bidirectional Encoder Representations from transformers),这是一种用于自然语言处理的预训练模型,在多项任务上取得了state-of-the-art的效果。
2019年:Ibm推出q System one,它是Ibm量子计算计划的一部分。被视为量子计算技术迈向商业化和实用化的重要里程碑。
2020年:苹果公司推出了首款基于自家芯片的mac电脑,采用了m1芯片,标志着苹果向自主芯片转型的开始。
2020年:马斯克发布脑机接口
马斯克的脑机接口bcI公司现场直播植入Neuralink设备的实验猪的脑部活动。通过这种设备,人们可以直接与计算机或其他外部设备进行交互,实现脑部信号的读取和控制。
2020年:openAI发布了Gpt-3,一个具有1750亿参数的语言模型,展示了自然语言处理的巨大潜力。
2021年:deepmind的AlphaFold在蛋白质结构预测方面取得了重大进展。
2022年:chatGpt席卷全球
11月30日,openAI正式发布chatGpt,其宗旨是为人们提供一种高效、自然的与计算机进行对话的方式。chatGpt一经推出就席卷了整个行业,短短5天,注册用户数就超过100万,仅两个月月活用户数已经破亿。
2023年:AI元年,百模大战
国际上,微软宣布Gpt-4接入office,meta发布LLamA 模型并开源,Google发布Gemini 1.0、bard开放测试,Runways发布Gun-2。在中国,2023年10亿参数规模以上的大模型厂商及高校院所数量已超过250家。华为盘古大模型3.0,百度:文心一言,阿里云:通义千问,科大讯飞:星火认知大模型,360智脑等备受关注。
2024年:Sora问世,Kimi来了
2月15日,国际领先AI公司openAI正式发布人工智能文生视频大模型Sora。其所生成的影像画面展示了令人震撼的光影和细节,被誉为AI版的“神笔马良”。但是,openAI视Sora为“世界模拟器”,而不是单纯的视频模型。
3月18日,中国AI初创公司月之暗面宣布,Kimi 智能助手可支持的无损上下文长度由20万汉字增至200万汉字,并于即日起开启产品“内测”,从而引爆行业。
……
3月20日,春分,我们开始了《人工智能日记》。