达观数据宣布研发垂直领域GPT模型“曹植”系统

自然语言处理进入“战国时代”,记者今天从专注于自然语言处理的人工智能企业达观数据获悉,该公司正基于多年文本智能技术积累和垂直领域场景业务经验,积极探索大语言模型(LLM)的实践,研发国产版GPT“曹植”系统,作为垂直、专用、自主可控的国产版ChatGPT模型,不仅能实现专业领域的AIGC智能化应用,且可内置在客户各类业务系统中提供专用服务,赋能金融、政务、制造等多个垂直领域和通用场景人工智能的落地和发展。“曹植”系统取自曹植七步成诗的典故。今年以来,以ChatGPT为代表的通用领域生成式大规模语言模型展现出卓越的知识学习和文字创作能力,受到国内外的广泛关注,达观数据认为,垂直领域的GPT大模型同样拥有广阔的应用前景,“曹植”将成为国内大规模语言模型中首批可落地的产业应用级模型。据介绍,“曹植”垂直领域大语言模型将进一步夯实达观产业应用智能化基座,全面增强AI全产品矩阵能力。例如,达观企业申报材料自动生成,基于达观AIGC智能写作......阅读全文

日本打造自己的“ChatGPT”

原文地址:http://news.sciencenet.cn/htmlnews/2023/9/508482.shtm日本正在打造自己的聊天机器人ChatGPT。日本政府和NEC、富士通、软银等大型科技公司正在投入数亿美元,开发基于相同底层技术的人工智能系统——大型语言模型(LLMs),使用语言为日语

如何识破人工智能在一本正经地瞎编乱造

你能看得出人工智能在瞎编乱造吗?《自然》6月19日发表的一项研究报道了一种能检测大语言模型(LLM)幻觉(hallucination)的方法,该方法能够测量生成回答的含义的不确定性,或者用于提升LLM输出的可靠性。像ChatGPT和Gemini这样的LLM是能够阅读和生成自然人类语言的人工智能系统。

提高大语言模型可信度,新方法助生成式AI破除“幻觉”

人工智能(AI)在给出准确答案的同时,也会有一些“胡乱输出”令人难辨真假,这被称为“幻觉”(hallucination)。而新一期《自然》杂志发表的一项研究报道了一种新方法,能检测大语言模型(LLM)产生的“幻觉”,即该方法能测量生成回答的含义的不确定性,或能提升LLM输出答案的可靠性。类似Chat

“以毒攻毒”!识别大模型“一本正经胡说八道”

6月18日,《自然》发表的一项研究报道了一种能检测大语言模型(LLM)幻觉(hallucination)的方法,该方法能检测生成回答的含义的不确定性,或能用于提升LLM输出的可靠性。LLM(如ChatGPT和Gemini)是能阅读和生成人类自然语言的人工智能系统。不过,这类系统很容易产生幻觉,生成不

大脑处理语言,母语最“省事”

多数人只会说一两种语言,而美国华盛顿特区的47岁地毯清洁工Vaughn Smith却精通24国语言。据《科学》报道,在一项新的大脑成像研究中,研究人员仔细观察了像Smith这样多语言者的大脑,以了解其语言特定区域在听到不同语言时的反应。研究人员发现,受试者熟悉的语言引起了他们大脑更强烈的反应。但有一

人工智能新模型可解码DNA隐藏“语言”

  DNA包含了维持生命所需的基础信息。理解这些信息是如何存储和组织的,一直是20世纪最大的科学挑战之一。现在,借助GROVER这一基于人类DNA训练的新型大型语言模型,研究人员有望解码基因组中隐藏的复杂信息。GROVER由德国德累斯顿工业大学生物技术中心开发,它将人类DNA视为文本,通过学习其规则

人工智能新模型可解码DNA隐藏“语言”

科技日报北京8月6日电 (记者张佳欣)DNA包含了维持生命所需的基础信息。理解这些信息是如何存储和组织的,一直是20世纪最大的科学挑战之一。现在,借助GROVER这一基于人类DNA训练的新型大型语言模型,研究人员有望解码基因组中隐藏的复杂信息。GROVER由德国德累斯顿工业大学生物技术中心开发,它将

人工智能新模型可解码DNA隐藏“语言”

DNA包含了维持生命所需的基础信息。理解这些信息是如何存储和组织的,一直是20世纪最大的科学挑战之一。现在,借助GROVER这一基于人类DNA训练的新型大型语言模型,研究人员有望解码基因组中隐藏的复杂信息。GROVER由德国德累斯顿工业大学生物技术中心开发,它将人类DNA视为文本,通过学习其规则和上

人工智能新模型可解码DNA隐藏“语言”

DNA包含了维持生命所需的基础信息。理解这些信息是如何存储和组织的,一直是20世纪最大的科学挑战之一。现在,借助GROVER这一基于人类DNA训练的新型大型语言模型,研究人员有望解码基因组中隐藏的复杂信息。GROVER由德国德累斯顿工业大学生物技术中心开发,它将人类DNA视为文本,通过学习其规则和上

人工智能新模型可解码DNA隐藏“语言”

DNA包含了维持生命所需的基础信息。理解这些信息是如何存储和组织的,一直是20世纪最大的科学挑战之一。现在,借助GROVER这一基于人类DNA训练的新型大型语言模型,研究人员有望解码基因组中隐藏的复杂信息。GROVER由德国德累斯顿工业大学生物技术中心开发,它将人类DNA视为文本,通过学习其规则和上

科学家评估大型语言模型回答医学问题的能力

  图为研究团队的方法和现有技术的比较。Flan-PaLM540B模型在MedQA,MedMCQA和PubMedQA数据集上均超过了以往最先进的SOTA,每列上方显示的是准确率百分比。  你在网上搜过“我哪哪疼是不是得了啥啥病”吗?答案可能不尽如人意。但随着ChatGPT等大型自然语言模型(LLM)

类似-ChatGPT-的人工智能即将出现在主要科学搜索引擎中

  人工智能驱动的会话式聊天机器人已经出现在互联网搜索引擎中,例如谷歌的 Bard 和微软的 Bing,看起来也将越来越多地改变科学文献搜索方式。8 月 1 日,荷兰出版巨头 Elsevier 为其 Scopus 数据库的部分用户发布了由 ChatGPT 支持的 AI 界面,而英国公司 Digita

网上断病,这轮AI行不行?专家:模型尚不完善

原文地址:http://news.sciencenet.cn/htmlnews/2023/7/504964.shtm   ?图为研究团队的方法和现有技术的比较。Flan-PaLM 540B模型在MedQA,MedMCQA和PubMedQA数据集上均超过了以往最先进的SOTA,每列上方显示的是

AI助力自闭症诊断

医生通常通过临床观察和评估来确诊自闭症。为了剖析这一主观且难以描述的临床决策过程,研究人员借助大型语言模型(LLM),整合分析出最具诊断意义的自闭症相关行为和表现。相关成果3月27日发表于《细胞》杂志。研究显示,重复行为、特殊兴趣和感知相关行为,与自闭症诊断关联最密切。这些发现可能通过减少对社会因素

GPT4驱动的机器人化学家登Nature:自主设计反应,挑战复杂实验

  基于 Transformer 的大语言模型(LLM)在自然语言处理、生物、化学和计算机编程等各个领域取得了重大进展。  但对于在实验室工作的研究人员或那些不熟悉计算机代码的人来说,人工智能方法并不那么容易理解。  近日,卡内基梅隆大学的研究团队找到了如何让人工智能系统自学化学的方法。提出了一种基

人类与ChatGPT合作设计采摘机器人

荷兰代尔夫特大学和瑞士洛桑联邦理工学院(EPFL)科学家探索了人类与大型语言模型(LLM)之间不同程度的合作,借助ChatGPT设计并研制出了一款番茄收割机器人。相关论文发表于7日的《自然·机器智能》杂志。研究负责人之一、代尔夫特大学助理教授科西莫·德拉·桑蒂纳指出,他们希望ChatGPT能设计一个

ChatGPT如何“思考”

北京时间5月14日凌晨,美国开放人工智能研究中心(OpenAI)发布了其下一代大型语言模型GPT-4o,人工智能(AI)领域再起硝烟。尽管AI一词已很普及,但其内部运作方式仍像黑箱操作一样,是一个谜。因为AI依赖机器学习算法,而先进的机器学习算法使用模拟人脑结构的神经网络,信息在不同神经元间传递,以

达观数据宣布研发垂直领域GPT模型“曹植”系统

自然语言处理进入“战国时代”,记者今天从专注于自然语言处理的人工智能企业达观数据获悉,该公司正基于多年文本智能技术积累和垂直领域场景业务经验,积极探索大语言模型(LLM)的实践,研发国产版GPT“曹植”系统,作为垂直、专用、自主可控的国产版ChatGPT模型,不仅能实现专业领域的AIGC智能化应用,

人工智能让失语者重拾两种语言

大脑植入物首次帮助一个无法清楚表达的双语者用两种语言进行交流。与大脑植入物相连的人工智能系统能够实时解码他试图用西班牙语或英语说的话。5月20日发表于《自然-生物医学工程》的这项研究成果,为人们了解大脑如何处理语言提供了见解,并有朝一日研发出能够让无法口头交流的人恢复多语种语言的长效设备。医学影像显

C++排序库首次更改:人工智能改进编程语言

英国深度思维公司的人工智能体“阿尔法开发”(AlphaDev),已被证明能发现并改进C++(一种常用的计算机编程语言)库里广泛使用的计算机排序算法。《自然》7日刊登的这些人工智能(AI)生成的算法已被整合到C++排序库,这也是10多年来对这部分库作出的首次更改。       研究团队使用“Alpha

AI心理推断能力或与人类相当,但不意味它们有情商

新一期《自然·人类行为》发表论文显示,在测试追踪他人心理状态能力——也称心智理论(Theory of Mind)的任务中,两类大语言模型(LLM)在特定情况下的表现与人类相似,甚至更好。研究团队对热门LLM展开测试。心智理论对人类社交互动十分重要,是人类沟通交流和产生共鸣的关键。之前的研究表明,LL

AI心理推断能力或与人类相当,但不意味它们有情商

  新一期《自然·人类行为》发表论文显示,在测试追踪他人心理状态能力——也称心智理论(Theory of Mind)的任务中,两类大语言模型(LLM)在特定情况下的表现与人类相似,甚至更好。  研究团队对热门LLM展开测试。图片来源:《自然·人类行为》  心智理论对人类社交互动十分重要,是人类沟通交

“帮手”还是“帮凶”?生成式AI学术使用须关注

图片来源:《自然》网站生成式人工智能(AI)工具快速普及,在学术写作领域呈现爆炸式应用势头。使用基于大语言模型(LLM)的生成式AI工具能节省时间,减少语言障碍,让论文更加明白通畅。但这些工具的应用也让剽窃问题变得更复杂。英国《自然》网站在近日的报道中指出,对利用AI写作是否构成剽窃,以及在什么情况

“帮手”还是“帮凶”?生成式AI学术使用须关注

生成式人工智能(AI)工具快速普及,在学术写作领域呈现爆炸式应用势头。使用基于大语言模型(LLM)的生成式AI工具能节省时间,减少语言障碍,让论文更加明白通畅。但这些工具的应用也让剽窃问题变得更复杂。英国《自然》网站在近日的报道中指出,对利用AI写作是否构成剽窃,以及在什么情况下允许利用AI进行写作

Nature-Biomedical-Engineering:人工智能创造了新抗生素

  德克萨斯大学的研究人员利用人工智能开发了一种更安全、更有效的抗生素,这种抗生素在动物试验中表现出了希望。这种新方法可以加速抗生素耐药细菌感染治疗方法的发明。  一个类似于ChatGPT的人工智能的大型语言模型,已经被用来开发一种曾经对人类有毒的杀菌药物。  为了满足对更安全、更有效抗生素的需求,

AI心理推断能力或与人类相当,但不意味它们有情商

新一期《自然·人类行为》发表论文显示,在测试追踪他人心理状态能力——也称心智理论(Theory of Mind)的任务中,两类大语言模型(LLM)在特定情况下的表现与人类相似,甚至更好。研究团队对热门LLM展开测试。图片来源:《自然·人类行为》心智理论对人类社交互动十分重要,是人类沟通交流和产生共鸣

硬刚“GPT4”,谷歌重磅推出最强杀手锏“Gemini”

  12月6日,谷歌宣布推出其认为规模最大、功能最强大的人工智能模型Gemini。Gemini将包括三种不同的套件:Gemini Ultra,Gemini Pro和Gemini Nano。官方宣文中,概括出这三种套件的突出特性:  Gemini Ultra——参数量最大,能力最强,适用于高度复杂的任

ChatGPT火了,人工智能会造就最佳员工?

原文地址:http://news.sciencenet.cn/htmlnews/2023/4/499294.shtm 中新社上海4月24日电 题:ChatGPT火了 人工智能会造就未来“最佳员工”吗? 中新社记者 郑莹莹 “嘱咐‘两句话’,它就去‘干活’了。”——基于AI(人工智能)技术

微调大语言模型,科学家开发化学文本挖掘新方法

6月7日,中国科学院上海药物研究所研究员郑明月课题组在五项化学文本挖掘任务上对多个大语言模型的能力进行了全面综合的探究,展现了微调大语言模型成为一种通用高效的生成式文本挖掘方法,为大模型的落地应用提供参考。相关研究发表于《化学科学》。 近两年,以ChatGPT为代表的大语言模型(LLM)引领了人工智

压缩算法为大语言模型“瘦身”

据美国科学促进会旗下网站19日报道,美国普林斯顿大学和斯坦福大学团队开发出一种新压缩算法CALDERA,能精简大型语言模型(LLM)的海量数据,为LLM“瘦身”。这项算法不仅有助保护数据隐私、节约能源、降低成本,还能推动LLM在手机和笔记本电脑上高效使用。团队举例称,当人们使用ChatGPT时,请求