芯片市场的角逐,自研产品推出,后续如何?

微软在最近的年度开发者大会Microsoft Ignite上推出了两款自研芯片——Maia 100和Azure Cobalt 100,目标是为大语言模型的训练和推理提供动力。这一举动标志着微软正式加入了谷歌、亚马逊等科技巨头的行列,拥有了自己的定制芯片。 Maia 100是微软首款人工智能芯片,专为大语言模型训练而设计,是一款应用型专用集成电路(ASIC)芯片。这款芯片将与微软的Azure软件栈无缝集成,并预计在明年初在Azure数据中心推出。微软表示,Maia 100的目标是减少公司对英伟达GPU的依赖。 另一款芯片Azure Cobalt 100是一款基于Arm架构的128核云原生芯片,旨在满足通用计算任务的需求。这款芯片可以与Azure的生态系统兼容,并在微软Cloud上运行通用计算工作负载,有助于降低成本。此外,Azure Cobalt 100还能与英特尔处理器和亚马逊云的Graviton系列芯片展开竞争。 微......阅读全文

日本将开发更强日语能力的“大语言模型”人工智能技术

据共同社消息,日本东北大学和日本东京工业大学等团队计划开发一种更强日语能力的“大语言模型”,作为生成式人工智能(AI)的基础技术。该团队将利用理化学研究所的超级计算机“富岳”学习大量数据,并将在本年度内逐步公开。这一技术的开发将使国内企业和研究人员能够为自己的公司的服务或研究而自行改良。生成式AI可

谷歌Bard将接入更大规模大语言模型

原文地址:http://news.sciencenet.cn/htmlnews/2023/4/497708.shtm 谷歌对聊天机器人Bard进行了升级。  当地时间3月31日,谷歌及其母公司Alphabet的CEO桑达尔·皮查伊(Sundar Pichai)在一档播客节目中透露,Bard将

新引擎实现大语言模型推理速度显著提升

原文地址:http://news.sciencenet.cn/htmlnews/2023/11/511841.shtm

AI语言模型“提速”药物发现

原文地址:http://news.sciencenet.cn/htmlnews/2023/6/502762.shtm美国麻省理工学院和塔夫茨大学研究人员设计出一种基于大型语言模型(如ChatGPT)的人工智能算法,这种称为ConPLex的新模型可将目标蛋白与潜在的药物分子相匹配,而无需执行计算分子结

“他者”涌现:生成式人工智能大模型漫谈

原文地址:http://news.sciencenet.cn/htmlnews/2023/5/499798.shtm 人工智能近年来的快速发展引起了人们的广泛关注,生成式大模型成为了当前最热门的研究方向之一。只要在网上冲浪,人们总会以各种渠道看到听到人工智能新闻和作品,从最早出现在大众视野的Al

360智脑通过中国信通院可信AIGC大语言模型功能评估

原文地址:http://news.sciencenet.cn/htmlnews/2023/6/502739.shtm6月12日,360智脑的360GPT-S2-V8型号产品获得了中国信息通信研究院(以下简称“中国信通院”)“可信AIGC大语言模型基础能力”评估报告(以下简称“报告”),报告显示必选项

芯片测“功”-唯快不破-阿波罗人工智能模型来了

   随着集成电路技术的不断发展,芯片规模越来越大、集成度越来越高。与此同时,在设计和使用芯片时,掌握并管理其功耗就变得越来越重要。  为在设计或使用过程中管理好芯片功耗,杜克大学电子与计算机工程系教授、杜克大学计算进化智能实验室联合主任陈怡然团队开发出一种新的人工智能模型——阿波罗(APOLLO)

人工智能框架生态峰会掀开AI大模型新篇章

原文地址:http://news.sciencenet.cn/htmlnews/2023/6/502804.shtm

我国多款自研制人工智能大模型正式面向公众开放服务

  科技发展飞快,人工智能逐步研发出来。百度的文心一言、抖音的云雀大模型、中科院的紫东太初大模型等8款由中国科技企业或科研机构自主研发的人工智能大模型,8月31日宣布正式面向公众开放服务。  这是中国自主研发的人工智能大模型首次向公众开放服务。业内认为,这意味着中国人工智能大模型将获得更大的数据规模

英伟达自己超越自己,H200成为最强AI芯片

原文地址:http://news.sciencenet.cn/htmlnews/2023/11/512251.shtm·对比备受热捧的H100芯片,新的H200完成了1.4倍内存带宽和1.8倍内存容量的升级,提高了处理密集生成式人工智能负载的能力。据介绍,在处理Meta的大语言模型Llama2(70

AI监管方向缺乏全球共识,GPT4仍最强

原文地址:http://news.sciencenet.cn/htmlnews/2023/10/510089.shtm ·随着尖端人工智能系统变得更加强大和灵活,比较它们的能力越来越困难。由于基准变得不那么明确,用于评估大语言模型的“基于氛围”的方法在业界越来越普遍。 ·人工智能安全在202

百度CTO王海峰:文心一言,读书破万亿

  当下,大语言模型热度空前,诸如文心一言、ChatGPT等已经能够与人对话互动、回答问题、协助创作,逐渐应用于人们的工作和生活,也引发了社会热议。近日,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰再次做客CCTV-2《中国经济大讲堂》,阐释文心一言这类大语言模型的产品能力、技术原理

百度CTO王海峰揭秘:文心一言是如何炼成的?

“‘奇变偶不变’下一句是什么?”“这句话的下一句是‘符号看象限’。”“‘波棱盖咔秃噜皮了’是什么意思?”“波棱盖咔秃噜皮了是一句东北方言,意思是膝盖在马路牙子上磕破皮了。”“宫廷玉液酒多少钱一杯?”“宫廷玉液酒是小品中‘太后大酒楼’的招牌酒水,售价180元,由二锅头与水和兑而成。”……自3月16日百

北京连发3份政策文件!全国如何加快发展AI?

北京针对算力、数据、算法、应用、监管等产业发展核心要素及关键环节的难点、堵点,提出了具体举措,五个维度协同发力。从某种程度上讲,北京在发展人工智能方面如何制定和推行政策,具有全国示范效应。“中国正加快通过强化国家支持来培育本土的人工智能先驱”,而“首都率先制定新兴产业政策的情况并不少见”。最近,北京

百度CTO王海峰揭秘文心一言背后的AI技术

3月16日,百度在北京总部召开新闻发布会,百度创始人、董事长兼首席执行官李彦宏和百度首席技术官王海峰出席,李彦宏展示了新一代知识增强大语言模型文心一言在文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成五个使用场景中的综合能力,王海峰解读了文心一言的技术特性及其背后的技术积累。王海峰 百度供

文斐:研究解决大型语言模型的存储瓶颈问题

原文地址:http://news.sciencenet.cn/htmlnews/2023/4/497858.shtm“由于半导体器件的物理限制,摩尔定律已经难以为继;今后计算机芯片的效率提升将主要来源于体系架构的创新。”华南理工大学计算机科学与工程学院原院长、广东省计算机学会理事长韩国强对《中国科学

C++排序库首次更改:人工智能改进编程语言

英国深度思维公司的人工智能体“阿尔法开发”(AlphaDev),已被证明能发现并改进C++(一种常用的计算机编程语言)库里广泛使用的计算机排序算法。《自然》7日刊登的这些人工智能(AI)生成的算法已被整合到C++排序库,这也是10多年来对这部分库作出的首次更改。       研究团队使用“Alpha

人工智能芯片效率大比拼:高通以-2:1-击败英伟达

IT之家 4 月 9 日消息,人工智能芯片是用于训练和运行人工智能模型的专用硬件,高通公司和英伟达公司是目前两家领先的人工智能芯片制造商,在周三公布的一组新的测试数据中,高通的人工智能芯片在三个衡量电源效率的指标中以 2 比 1 击败了英伟达。据IT之家了解,人工智能模型需要用大量的数据进行训练,以

石景山通用人工智能大模型产业集聚区亮相服贸会

原文地址:http://news.sciencenet.cn/htmlnews/2023/9/507871.shtm9月3日,2023中国国际服务贸易交易会石景山国际开放合作论坛在北京市石景山区首钢园举办。近年来,石景山区紧紧围绕北京国际科技创新中心建设,聚焦数据、算法、算力,推进关键技术突破、建设

李开复下场发布大模型,公司估值10亿美元

原文地址:http://news.sciencenet.cn/htmlnews/2023/11/511773.shtm ·Yi-34B在关键指标上胜过市场上已有的领先开源模型,包括备受推崇的Meta的Llama 2,其分别在Hugging Face英文开源社区平台和C-Eval中文评测的最新榜单

微流控芯片技术构建多重诱导神经芯片模型

神经系统发育是一个高度动态和极其复杂的过程。建立体外仿生的组织细胞外微环境,探索和理解这些错综复杂的神经发育过程对神经科学、发育生物学及临床医学都具有极大的科学研究与应用价值。然而,目前国内外学者研究主要集中于单因素诱导的神经发育,对于多诱导因素参与的神经系统发育微环境体外构建及其技术与方法,还有待

微流控芯片技术构建多重诱导神经芯片模型

神经系统发育是一个高度动态和极其复杂的过程。建立体外仿生的组织细胞外微环境,探索和理解这些错综复杂的神经发育过程对神经科学、发育生物学及临床医学都具有极大的科学研究与应用价值。然而,目前国内外学者研究主要集中于单因素诱导的神经发育,对于多诱导因素参与的神经系统发育微环境体外构建及其技术与方法,还有待

MOFormer:无需3D结构、基于Transformer的预测语言模型

金属有机框架(MOF)是具有高比表面积、高孔隙率和结构可设计的结晶性多孔材料,可用于气体吸附、气体储存、气体分离、催化剂等领域。  然而,MOF 的化学空间非常巨大。发现适合特定应用的最佳 MOF 需要对无数潜在候选材料进行高效、准确的搜索。快速且低成本地为特定任务选择性能最佳的 MOF 一直具有挑

面对大模型应用门槛高-如何大模型发挥更大价值?

原文地址:http://news.sciencenet.cn/htmlnews/2022/9/485510.shtm 人工智能预训练大模型的研发,面临着数据规模大、数据质量参差不齐、模型体积大、训练难度高、算力需求大等一系列挑战。在这样的背景下,如何加速大模型的产业落地,让大模型发挥更大价值?

基于微流控芯片技术的多重诱导神经芯片模型

神经系统发育是一个高度动态和极其复杂的过程。动物生命有机体需要产生足够数量的神经元,并引导这些微环境敏感的神经元完成轴突延伸、树突分支和突触形成,实现高度精确和特异性的神经连接,进而实现有机体各生理功能的相互协调。神经轴突导向在这一过程中则起到了至关重要的作用。轴突前端的生长锥,通过探测和识别胞外环

《2021智源学者年度亮点工作报告》发布

1月27日,北京智源人工智能研究院发布《2021智源学者年度亮点工作报告》。报告覆盖人工智能的数理基础、机器学习、智能信息检索与挖掘、智能体系架构与芯片、自然语言处理、人工智能的认知神经基础六大研究方向以及AI医疗、人机交互、大规模预训练模型等前沿创新成果。智源研究院相关负责人表示,为对重点人才精准

施普林格·自然将提供人工智能语言润色工具

国际知名学术出版机构施普林格·自然15日向媒体发布信息称,继使用人工智能(AI)生成图书等应用之后,其投资并通过投资公司旗下“美国期刊专家”(American Journal Experts,AJE)开发出一款基于人工智能的语言润色工具,最近又决定将该工具作为一项免费服务提供给自己的图书作者和

科学家评估大型语言模型回答医学问题的能力

  图为研究团队的方法和现有技术的比较。Flan-PaLM540B模型在MedQA,MedMCQA和PubMedQA数据集上均超过了以往最先进的SOTA,每列上方显示的是准确率百分比。  你在网上搜过“我哪哪疼是不是得了啥啥病”吗?答案可能不尽如人意。但随着ChatGPT等大型自然语言模型(LLM)

百度首席技术官首度表态“通用人工智能”

“过去一段时间,以大语言模型为代表的人工智能技术取得了令人震撼的成绩,而这些已经让我们看到了通用人工智能的曙光。”近日,在由深度学习技术及应用国家工程研究中心主办的WAVE SUMMIT深度学习开发者大会上,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰首次发表他对于通用人工智

百度首席技术官首度表态“通用人工智能”

原文地址:http://news.sciencenet.cn/htmlnews/2023/8/507230.shtm“过去一段时间,以大语言模型为代表的人工智能技术取得了令人震撼的成绩,而这些已经让我们看到了通用人工智能的曙光。”近日,在由深度学习技术及应用国家工程研究中心主办的WAVE SUMMI