Opera 現在將允許用戶在本地運行 LLM,這是一項重大舉措

Opera 現在將允許用戶在本地運行 LLM,這是一項重大舉措

Opera 最近新增了一項新功能,使 Opera One 用戶能夠在其個人電腦上下載和使用大型語言模型 (LLM)。接收開發者串流更新的使用者可以使用此功能,並且可以存取來自各個系列的 150 多個模型,例如 Meta 的 Llama、Google 的 Gemma、Vicuna、Mistral AI 等。

Opera 瀏覽器和遊戲執行副總裁 Krystian Kolondra表示

“以這種方式引入本地法學碩士使 Opera 能夠開始探索在快速新興的本地人工智慧領域構建經驗和專業知識的方法。”

Opera 將這些最新添加的功能標記為「AI 功能下降計劃」的一部分,並承諾用戶資料將保留在其設備上,使他們能夠利用生成式 AI,而無需向伺服器發送任何資料。該公司正在採用 Ollama 開源框架直接在使用者電腦上執行這些模型。每個版本的機型佔用裝置儲存空間2-10GB。

Opera One 當地法學碩士

Opera 正在努力加入利用人工智慧技術的趨勢,引入這些新功能。然而,這並不是瀏覽器第一次融入人工智慧,去年 Opera One 的發布就是如此。此舉鞏固了該公司成為領先的專注於人工智慧的瀏覽器的目標,並透過其人工智慧助理 Aria 的推出進一步證明了這一目標。透過提供獨特和創造性的功能,這些更新預計將有助於 Opera 增加其市場份額。根據 Statcounter 2023 年 12 月的報告,Opera 佔據 3.8% 的市場份額,躋身桌面瀏覽器前 5 名。

要體驗 Opera 中的這項新功能,只需更新至 Opera Developer 的最新版本並按照這些說明在您的裝置上啟用本機 LLM。這將允許用戶的機器使用本地 LLM 而不是 Opera 的 AI 助理 Aria,除非用戶發起與 Aria 的聊天或重新啟動它。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *