史爱武:ChatGPT强AI时代的里程碑

时间: 2024-09-07 20:35:12 |   作者: 扫地机

产品详情

  从去年11月ChatGPT发布开始,到微软将其整合到Bing搜索引擎和Edge浏览器中,再到GPT-4火速上线,ChatGPT在开年几个月的火爆程度令人很难来想象,俨然是一场全球的AI科技狂欢。科技巨头竞相布局拼产品,全球股市相关概念股也是全线飘红,吃瓜群众朋友圈持续刷屏,各种新旧媒体也是乐此不疲追新闻……而上一波这样的全球科学技术热潮却是2021年3月美国游戏公司Roblox上市所引爆的元宇宙概念。ChatGPT吸引了全球各界的关注与讨论,也标志着强AI时代的来临。

  人工智能通常是指机器智能,让机器实现类似乃至超越人类感知、认知、行为等智能的系统。一般来说,人工智能分成弱人工智能、强AI和超人工智能三大类。

  擅长专有或特定技能的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能 AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它就不知道如何做了。目前的人工智能绝大多数都是弱人工智能。

  是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用AI。人类能干的很多脑力活,它也能干,创造强人工智能比创造弱人工智能难得多,ChatGPT就是强人工智能的一个里程碑。

  知名人工智能思想家 Nick Bostrom 把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能现在还不存在,很多人也希望它永远别存在,担心它可能像好莱坞科幻大片里的超级AI机器人一样给人类带来一些威胁或者颠覆。

  我们现在处于一个充满弱人工智能的世界,扫地机器人是让我们打扫卫生的弱人工智能;百度翻译是让我们翻译英文的弱人工智能,等等。这些弱人工智能的不停地改进革新都是迈向强AI和超人工智能的进步。AI科学家 Aaron Saenz 说过,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。

  人工智能生产内容AIGC(AI-Generated Content)最基本的能力是生成内容,包括文本、图像、视频、代码或者几种媒介类型转换形成的“多模态内容”。传统AI侧重于根据已有内容的分析能力,现在的AI(特别是AIGC)基于训练数据和生成算法模型可以自主生成各种各样的形式的内容和数据。生成算法、预训练深度模型、多模态等AI技术的创新和融合催生了AIGC的大爆发。2022年,Stable Diffusion、DALL-E 2等通过文字生成图片的AIGC模型风行一时;ChatGPT能够回答问题、生成代码、构思剧本和小说,将人机对话推向新高度。具体而言,ChatGPT能理解并生成文字,属于AIGC技术应用中的文本生成应用模型。

  ChatGPT是一款由美国OpenAI 公司于2022年11月发布的自然语言处理人机交互应用,是迄今为止AI领域最成功的产品和历史上用户上涨的速度最快的应用程序。ChatGPT是“Chat Generative Pre-trained Transformer”的缩写,Chat是聊天的意思,GPT是生成式预训练语言模型。ChatGPT实际上的意思就是基于GPT-3.5神经网络架构,然后利用人工微调升级的一个新语言模型。它拥有接近人类水平的语言理解和文本生成能力,尤其是它会通过连接包含真实世界中的对话等大量的语料库来训练模型,还能根据聊天的上下文进行互动,真正像人类一样聊天交流。ChatGPT不单是聊天机器人,还能完成写邮件、编辑视频脚本、设计文案、翻译文本、开发代码等文本生成式任务。

  ChatGPT的出现标志着强人工智能的来临,是里程碑式的技术进步,将引发新一轮人工智能热潮。毋庸置疑,ChatGPT的发展也应归功于人工智能的三要素——数据、算法和算力,更是依赖大数据、大模型、大算力而发展起来的。

  ChatGPT的数据集可分为六类,分别是、书籍、期刊、Reddit链接、Common Crawl和其他数据集。其中,Reddit链接是指从社会化媒体平台Reddit所有出站链接网络中爬取的数据,代表了流行内容的风向标;Common Crawl是2008年至今的一个网站抓取的大型数据集,包含来自不同语言、不相同的领域的原始网页、元数据和文本提取;其他数据集由GitHub等代码数据集、StackExchange等对话论坛和视频字幕数据集组成。根据2020 年OpenAI发布的关于GPT-3模型论文,所用的主要训练数据集大小为753GB,包含4990亿Token(一个Token指的是响应请求所需的最小文本单位)。

  ChatGPT 的卓越表现得益于其背后多项核心算法的支持和配合,包括作为其实现基础的 Transformer语言模型、激发出其蕴含知识的提示学习和指令精调 Prompt / Instruction Tuning 算法、其涌现出的思维链能力COT、以及确保其与人类意图对齐的基于人类反馈的强化学习算法RLHF。其中,最基础的模型是基于Transformer的预训练语言模型GPT,Transformer是一种基于自注意力机制的深度神经网络模型,可以高效并行地处理序列数据。原始的 Transformer 模型包含编码器和解码器两个关键组件。编码器用于将输入序列映射到一组中间表示,解码器则将中间表示转换为目标序列。编码器和解码器都由多层的注意力模块和前馈神经网络模块组成。其中自注意力模块能学习序列中不同位置之间的依赖关系,即在处理每个位置的信息时,模型会考虑序列中其他所有位置上的信息。GPT系列模型GPT-3 最显著的特点是大,一种原因是模型规模大,参数多,达到1750亿个参数;另一方面是训练过程中使用到的数据集规模大,达到45TB。在这样的模型规模与数据量下,GPT-3 在多个任务上均展现出了非常优异的性能。

  随着ChatGPT的模型参数量指数级增长和训练数据集规模化扩张,算力需求也是持续增加。据报道,ChatGPT的模型训练使用了微软专门建设的、由1万个V100 GPU组成的高性能集群 AI 计算系统,而训练消耗的总算力约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7~8个投资规模30亿、算力500P(1P相当于每秒运算一千万亿次)的数据中心才能支撑——这还只是模型训练阶段的算力需求,真实运行过程中的算力需求更为惊人。OpenAI宣布,GPT-5将在2024 年底左右推出,它的参数量为GPT-3的100倍,算力需求为 GPT-3的200-400倍。随着ChatGPT用户和应用场景范围的持续扩大,数据处理压力不断增大,算力需求更是飙升。

  ChatGPT时代充满了机遇与挑战。新技术解放了人类繁杂重复工作,让人将宝贵的时间精力转移到更多具有创造性、想象力和人性化的工作上,人均生产效率会持续提高。未来太多的工作岗位也会因为ChatGPT而缩减甚至被大部分替代,如一些重复性和低层次的工作(数据录入员、仓库人员、银行柜员等);初级创意工作(文案设计师、平面设计师、初级编程人员等),等等。并非所有岗位都可能被取代,需要个人情感、智力和创造力的许多工作是ChatGPT为代表的人工智能技术目前无法模拟或完全替代的。人工智能技术替代的不是人类整体,而是不愿意学习提升的那类人。换言之,它不是替代我们,而是促使我们更好地学习、进化,为我们赋能。

  ChatGPT的出现产生了轰动效应,也给我们大家带来了诸多挑战。在教育和学术领域,为避免学术欺诈和剽窃,巴黎政治学院、香港大学等高校宣布禁止师生在教学活动中使用ChatGPT等AI工具。《科学》《自然》等多家期刊也发表相关声明,不接受论文将ChatGPT列为“合著者”。2023年3月,OpenAI发布声明,由于开源库中存在漏洞导致一些用户都能够看到另一些用户的聊天记录标题,ChatGPT临时下线。同月,意大利数据保护机构宣布,对OpenAI公司非法收集用户个人信息展开调查,并禁止使用ChatGPT;韩国三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”。

  ChatGPT标志的强人工智能已到来,科幻电影描绘的超人工智能还会远吗?3月29日,由约书亚·本吉奥(图灵奖获得者、深度学习三巨头之一)、埃隆·马斯克、尤瓦尔·赫拉利(《人类简史》作者)等超千人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。目前来看,这封公开信应该不能阻止AI快速的提升的脚步。AI的发展无人可以阻挡,在它无穷的潜力面前,也没人知道它会将人类文明推向何方。返回搜狐,查看更加多


回到顶部