Als grote primeur biedt Opera gebruikers nu de mogelijkheid om lokaal LLM’s uit te voeren

Als grote primeur biedt Opera gebruikers nu de mogelijkheid om lokaal LLM’s uit te voeren

Opera heeft onlangs een nieuwe functie toegevoegd waarmee Opera One-gebruikers Large Language Models (LLM’s) op hun pc kunnen downloaden en gebruiken. Deze functie is toegankelijk voor gebruikers die updates van ontwikkelaarsstreams ontvangen en biedt toegang tot meer dan 150 modellen uit verschillende families, zoals Llama van Meta, Gemma van Google, Vicuna, Mistral AI en anderen.

Volgens Krystian Kolondra, EVP van Browsers en Gaming bij Opera, verklaarde hij :

“Door op deze manier lokale LLM’s te introduceren, kan Opera manieren gaan verkennen om ervaringen en kennis op te bouwen binnen de snel opkomende lokale AI-ruimte.”

Opera heeft deze nieuwste toevoegingen bestempeld als onderdeel van zijn ‘AI Feature Drops Program’ en belooft dat gebruikersgegevens op hun apparaat blijven opgeslagen, waardoor ze generatieve AI kunnen gebruiken zonder dat ze gegevens naar een server hoeven te sturen. Het bedrijf gebruikt het open-sourceframework van Ollama om deze modellen rechtstreeks op de computers van gebruikers uit te voeren. Elke versie van de modellen neemt 2-10 GB opslagruimte in beslag op het apparaat.

Opera One lokale LLM

Opera doet er alles aan om met de introductie van deze nieuwe functies mee te doen aan de trend van het gebruik van AI-technologie. Dit is echter niet de eerste keer dat de browser AI bevat, zoals te zien was bij de release van Opera One vorig jaar. Deze stap versterkte het doel van het bedrijf om een ​​toonaangevende AI-gerichte browser te worden, wat verder werd gedemonstreerd met de lancering van hun AI-assistent, Aria. Door onderscheidende en inventieve functies aan te bieden, zullen deze updates naar verwachting Opera helpen zijn marktaandeel te vergroten. Volgens een rapport van Statcounter uit december 2023 veroverde Opera een marktaandeel van 3,8% en behoorde het tot de top 5 van desktopbrowsers.

Om deze nieuwe functie in Opera te ervaren, hoeft u alleen maar te updaten naar de nieuwste versie van Opera Developer en volgt u deze instructies om lokale LLM’s op uw apparaat in te schakelen. Hierdoor kan de machine van de gebruiker de lokale LLM gebruiken in plaats van Opera’s AI-assistent Aria, tenzij de gebruiker een chat met Aria initieert of deze opnieuw activeert.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *