opera(Opera已允许用户在本地下载和使用大语言模型)

更新时间:2024-04-18 09:53:58 所在栏目: 生活常识点击量:

Opera已允许用户在当地下载和使用大言语模子

网络欣赏器公司 Opera 今天公布,如今用户可以在电脑上下载和使用大型言语模子 (LLM)。该功效将起首向取得开发者流更新的Opera One用户推出,用户可以从 50 多个系列的 150 多个模子中举行选择。

这些模子包含 Meta 的 Llama、Google 的 Gemma 和 Vicuna。该功效将作为 Opera 人工智能功效公布方案的一局部提需求用户,让用户事先使用局部人工智能功效。

该公司表现,它在欣赏器中使用 Ollama 开放源码框架在盘算机上运转这些模子。现在,一切可用的模子都是 Ollama 库的子集,但该公司渴望将来能到场不同泉源的模子。

该公司提到,每个变体都市占用当地体系凌驾 2GB 的空间。因此应该审慎使用可用空间,以免存储空间耗尽。值得注意的是,Opera 本人载模子时不会做任何节流存储空间的事情。

"Opera如今初次在欣赏器中直接提供了多量第三方当地LLM。"Opera 副总裁 Jan Standal 在一份声明中表现:"随着第三方当地 LLM 越来越专业,估计它们的范围约莫会变小。"

假如用户方案在当地测试种种模子,这项功效会很有效,但假如想节流空间,也可以使用Quora's Poe和HuggingChat等多量在线东西来探究不同的模子。

自客岁以来,Opera 不休在实验人工智能功效。客岁 5 月,该公司在侧边栏推出了一款名为 Aria 的助手,并于8 月将其引入 iOS 版本。本年 1 月,Opera 表现,由于欧盟数字市场法案(DMA)要求苹果丢弃对挪动欣赏器 WebKit 引擎的欺压要求,该公司正在为 iOS 构建一款自带引擎的人工智能欣赏器。

声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。