发布时间:2024-11-28 16:41 原文链接: 压缩算法为大语言模型“瘦身”

据美国科学促进会旗下网站19日报道,美国普林斯顿大学和斯坦福大学团队开发出一种新压缩算法CALDERA,能精简大型语言模型(LLM)的海量数据,为LLM“瘦身”。这项算法不仅有助保护数据隐私、节约能源、降低成本,还能推动LLM在手机和笔记本电脑上高效使用。

团队举例称,当人们使用ChatGPT时,请求会被发送到OpenAI公司的后端服务器进行处理。这一过程不仅成本高昂、能耗巨大,通常还很慢。如果用户想要使用消费级图形处理单元运行LLM,就需要对这些LLM进行压缩。

CALDERA算法通过减少LLM冗余并降低信息层的精度来发挥作用。“瘦身”后的LLM更加精简,可在手机或笔记本电脑等设备上存储和访问,同时提供了与未压缩版本几乎一样准确而微妙的性能。

虽然CALDERA并非首个压缩LLM的算法,但其独特之处在于兼具“低精度”和“低排序”两种特性。其中,“低精度”减少了比特数,加快了数据存储和处理速度。而“低排序”则降低了LLM数据中的冗余。

团队表示,使用CALDERA压缩的LLM可能适用于那些对精度要求不是最高的场景。此外,用户可在智能手机或笔记本电脑等设备上对压缩后的LLM进行微调,这使其能根据特定需求调整模型来增强隐私,而无需与第三方共享敏感数据。

不过团队也提醒道,在智能手机或笔记本电脑上运行LLM,可能会占用设备内存。


相关文章

新型AI芯片将大语言模型能耗减半

美国俄勒冈州立大学科研团队研发出一种新型AI芯片,成功将大语言模型的能耗降低50%。这项成果于近期在波士顿举行的IEEE定制集成电路会议上发布,是半导体领域的重大突破,有望成为解决大语言模型高能耗问题......

压缩算法为大语言模型“瘦身”

据美国科学促进会旗下网站19日报道,美国普林斯顿大学和斯坦福大学团队开发出一种新压缩算法CALDERA,能精简大型语言模型(LLM)的海量数据,为LLM“瘦身”。这项算法不仅有助保护数据隐私、节约能源......

压缩算法为大语言模型“瘦身”

据美国科学促进会旗下网站19日报道,美国普林斯顿大学和斯坦福大学团队开发出一种新压缩算法CALDERA,能精简大型语言模型(LLM)的海量数据,为LLM“瘦身”。这项算法不仅有助保护数据隐私、节约能源......

世界知识产权组织:中国生成式人工智能专利申请量世界第一

世界知识产权组织3日发布的报告显示,2014年至2023年,中国生成式人工智能专利申请量超3.8万件,居世界第一,是第二名美国的6倍。这份《世界知识产权组织生成式人工智能专利态势报告》显示,2014年......

提高大语言模型可信度,新方法助生成式AI破除“幻觉”

人工智能(AI)在给出准确答案的同时,也会有一些“胡乱输出”令人难辨真假,这被称为“幻觉”(hallucination)。而新一期《自然》杂志发表的一项研究报道了一种新方法,能检测大语言模型(LLM)......

我国学者提出用好大语言模型实用策略

当前,大语言模型的应用日益广泛,覆盖从文本生成到复杂问题解决等多个领域,如何更好利用AI工具?记者10日从中国科学技术大学获悉,该校心理学系林志成特任研究员近日在其评论文章中研究提出一项实用策略,帮助......

我国学者提出用好大语言模型实用策略

中新网合肥5月10日电(记者吴兰)当前,大语言模型的应用日益广泛,覆盖从文本生成到复杂问题解决等多个领域,如何更好利用AI工具?记者10日从中国科学技术大学获悉,该校心理学系林志成特任研究员近日在其评......

科研人员利用大语言模型解释调节睡眠的分子机制

华中科技大学生命学院张珞颖团队和薛宇团队在NatureCommunications杂志上合作发表了题为“Large-languagemodelsfacilitatediscoveryofthemole......

崖州湾国家实验室联合发布首个种业大语言模型“丰登”

4月28日,崖州湾国家实验室精准设计与智造团队与中国农业大学、上海人工智能实验室共同发布首个种业大语言模型“丰登”。该模型集成了先进的人工智能技术与大数据分析,对海量来自不同渠道的育种科研文献、技术书......

GPT4驱动的机器人化学家登Nature:自主设计反应,挑战复杂实验

基于Transformer的大语言模型(LLM)在自然语言处理、生物、化学和计算机编程等各个领域取得了重大进展。但对于在实验室工作的研究人员或那些不熟悉计算机代码的人来说,人工智能方法并不那么容易理解......