发烧友网报道(文/李弯弯)日前,知乎在北京召开“2023知乎发现大会”,首次公开旗下与面壁知乎用户回答的41条内容,“知海图AI”的表现基本接近ChatGPT-4。
在OpenAI推出ChatGPT之后,近几个月,国内外科技公司陆续推出自己的大模型,包括百度的文心一言,商汤科技的商量SenseChat,阿里云的通义千问,昆仑万维的“天工”3.5,以及亚马逊Titan,还有360、腾讯、搜狐,王慧文的光年之外等都传出相关消息。
OpenAI在2022年11月30日发布的ChatGPT,在短短几个月时间风靡全球。今年3月14日,OpenAI再次发布更强大的多模态大模型GPT-4。其最大股东微软公司不仅宣布推出由ChatGPT支持的搜索引擎Bing和Edge浏览器。还宣布将GPT-4全面接入所有办公软件。
在ChatGPT的带动下,全球科技公司掀起研究大型语言模型的热潮。国内最新跟上的要数百度了,3月16日,百度正式对外发布新一代大语言模型、生成式AI产品文心一言。在发布会上,李彦宏还展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成等使用场景中的综合能力。
除了百度,最近还有多个大型语言模型密集发布。4月10日,昆仑万维宣布,其和奇点智源合作自研、中国第一个真正的完成智能涌现的国产大语言模型——“天工”3.5发布在即,并将于4月17日启动邀请测试。该公司表示,“天工”大模型已经很接近OpenAI ChatGPT的智能水平。
4月11日,在2023阿里云峰会上,阿里云也正式对外发布了旗下的类ChatGPT大模型——通义千问。阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表示,阿里巴巴全部的产品未来将接入“通义千问”大模型,做全面改造,钉钉、天猫精灵已率先接入通义千问测试,并会在评估认证后正式对外发布新功能。
4月12日,商汤科技发布“日日新SenseNova”大模型体系,推出语言大模型“商量SenseChat”、内容生成、自动化数据标注、自定义模型训练等多种大模型及能力。据悉,作为千亿级参数的自然语言处理模型,“商量SenseChat”使用大量数据训练,并最大限度地考虑了中文语境,能够更好地理解和处理中文文本。
4月13日,亚马逊推出一项名为“Bedrock”的云服务,允许开发者使用类似于ChatGPT聊天机器人AI系统。通过Bedrock生成式人工智能服务,亚马逊旗下云服务AWS将向开发者提供自家的语言模型“Titan”,和来自初创公司AI21和谷歌支持的Anthropic的语言模型。这其中,一个Titan模型可以为博客帖子、电子邮件或其他文档生成文本,而另一个能够在一定程度上帮助搜索和实现个性化。
此外,华为、腾讯也在大模型方面有所积累,华为最早于2021年便发布了华为云盘古基础大模型,包括NLP、CV和科学计算大模型。最近有消息称,华为云官网即将上线盘古系列AI大模型,分别为NLP大模型、CV等。不过华为云方面,并没有对此做出回应。
腾讯很早就已经进行AI大模型的研究——混元AI大模型覆盖NLP(自然语言处理)、CV(计算机视觉)、多模态等基础模型和众多行业/领域模型。腾讯不久前表示,近期混元AI大模型团队也推出了万亿中文NLP预训练模型HunYuan-NLP-1T,实现在中文语言理解能力上的新突破,而且得益其低成本、普惠等特点,目前HunYuan-NLP-1T大模型已成功落地于腾讯广告、搜索、对话等内部产品并通过腾讯云服务外部客户。
除了科技大厂,也有创业团队宣布加入大模型研究大军。4月10日,搜狗创始人王小川正式公开宣布入场大模型创业,和前搜狗COO茹立云联合创立人工智能公司——百川智能,要做的事情是打造中国版的Open AI基础大模型及颠覆性上层应用。王小川表示,有信心在年底发布国内最好的语言大模型。
另外,还有之前很受关注的创业项目,美团联合创始人王慧文设立的光年之外科技公司。以及前商汤科技副总裁、通用智能技术负责人闫俊杰创办的Minimax。
然而,大模型的训练和运行,需要强大的算力基础。阿里云、商汤科技、腾讯等,在研究推进大模型研究的同时,也在构建算力基础设施,供公司自身或其他公司使用。
大模型背后的算力基础,包括高性能计算硬件、分布式计算框架、高效的算法和优化技术和大量的训练数据和存储资源。这一些因素共同支撑着大模型的成功运行。
阿里云在这方面做了充足准备,张勇表示,十多年来,阿里云已经累积了从飞天云操作系统芯片到智算平台的“AI+云计算”的全栈技术实力,并在IaaS(基础设施即服务)和PaaS(平台即服务)的基础上,建立了第三层MaaS(模型即服务)的体系。
具体而言,“飞天智算基础设施”智算IaaS服务涵盖了一系列卓越特性,包括能够支持高达十万卡GPU的单集群规模、可让多个万亿参数大模型同时在线训练的强大智算集群,以及为万卡规模AI集群提供无拥塞通讯的自主研发R架构等;
智算PaaS服务则以机器学习平台PAI为核心,可支持万卡的单任务分布式训练规模,AI训练效率提升可达10倍,推理效率提升可达6倍,覆盖全链路AI开发工具与大数据服务,深度支持了通义大模型的研发。
凭借这些能力,阿里云不但可以为自家大模型“通义千问”提供支持,还能够把丰富的算力资源和大模型能力分享给更多企业和社会各界,一同推动AI技术的发展。
商汤科技在这方面也有积累,当前业界训练大模型对大算力的需求非常旺盛,并且真正好用的基础设施十分稀缺。商汤历时五年,建设了业界领先的AI大装置,大装置上总共有27000块的GPU芯片卡,可以输出5.0 exaFLOPS的总算力,是亚洲目前最大的智能计算平台之一。
基于大装置的能力,商汤目前已构建了计算机视觉、自然语言处理、AI内容生成、多模态、决策智能等多个领域的大模型,持续演进能力并广泛支持各种应用。
面向大模型训练,4月14日,腾讯云正式发布了新一代HCC(High-Pemance Computing Cluster)高性能计算集群。该集群采用腾讯云星星海自研服务器,国内首发搭载英伟达最新代次H800 GPU,可提供高性能、高带宽、低延迟的算力支撑。根据官方数据,新的HCC计算集群能够将大模型的训练时间从上一代的11天压缩至4天,可以有效节省大量时间。
从目前的情况去看,国内外科技公司巨头都已经加入到大模型的研究大军中,在过去短短几个月时间,各种大模型产品密集发布。与此同时,作为大模型训练和部署重要的支撑,算力基础设施的构建也在加速推进。
另外,日前消息,微软宣布开源了Deep Speed Chat,能够在一定程度上帮助用户轻松训练类ChatGPT等大语言模型,使得人人都能有自己的ChatGPT。也就是说,用户通过Deep Speed Chat提供的“傻瓜式”操作,能以最短的时间、最高效的成本训练类ChatGPT大语言模型,这标志着人手一个ChatGPT的时代要来了。
当然,当前ChatGPT等大模型还处于初期发展阶段,人们不免对安全风险隐患、数据隐私、道德问题存在担心。不过,最近多个国家慢慢的开始着手制定AI相关的规则和政策。这在某种程度上预示着,大模型在经历了过去几个月的野蛮生长之后,将会逐步向规范化发展。
的AI系统软件,可以遵循以下步骤:确定应用场景:确定人工智能系统软件要
软件 /
的快速发展,文字生成、音频生成、图像生成、视频生成、策略生成、GAMEAI、虚拟人等生成领域得到了极大的提升。然而,这些技术对GPU和算力的需求也慢慢变得高。
相继公开 API 、带来「插件功能 」之际,我们明显感知到了 GPT 正在以前所未有的速度成为人工智能
PaLM 2细节遭曝光 /
,转速越高并不代表电机的性能越好,而是与具体应用需求和电机设计有关。
网络如何搭建 /
iPhone 16或成苹果首款AI手机,预计在尺寸/屏幕/电池/麦克风等方面迎来重大升级
【开箱视频】仪器验收必须要格外注意哪些细节?#电子元器件 #电子工程师 #我在现场
allegro制作通孔视频, Allegro进行标注的时候,如何添加上单位显示呢?