Microsoft lanceert tool om hallucinerende inhoud in AI-resultaten te identificeren en te corrigeren

Microsoft lanceert tool om hallucinerende inhoud in AI-resultaten te identificeren en te corrigeren

Azure AI Content Safety is een innovatieve AI-oplossing van Microsoft die is ontworpen om schadelijke door gebruikers en AI gegenereerde content te identificeren binnen verschillende applicaties en services. De service omvat zowel tekst- als afbeeldings-API’s, waardoor ontwikkelaars ongewenst materiaal effectief kunnen markeren.

De Groundedness Detection API, onderdeel van Azure AI Content Safety, kan vaststellen of reacties van grote taalmodellen gebaseerd zijn op door de gebruiker geselecteerde bronmaterialen. Aangezien huidige grote taalmodellen soms onjuiste of niet-feitelijke informatie produceren (vaak hallucinaties genoemd), helpt deze API ontwikkelaars bij het herkennen van dergelijke onjuistheden in AI-uitvoer.

Microsoft heeft onlangs een preview aangekondigd van een correctiefunctie waarmee ontwikkelaars hallucinaties in realtime kunnen detecteren en corrigeren. Zo krijgen eindgebruikers altijd feitelijk correcte, door AI gegenereerde content te zien.

Zo werkt de correctiefunctie:

  • De applicatieontwikkelaar activeert de correctiemogelijkheid.
  • Zodra een ongegronde zin wordt gedetecteerd, wordt er een nieuw verzoek voor correctie naar het generatieve AI-model gestuurd.
  • Het grote taalmodel evalueert de ongefundeerde zin ten opzichte van het basisdocument.
  • Zinnen waarvan de inhoud niet relevant is voor het basisdocument, kunnen volledig worden weggefilterd.
  • Als er inhoud in het basisdocument wordt gevonden, herschrijft het basismodel de ongefundeerde zin zodat deze aansluit bij het document.

Naast de correctiefunctie heeft Microsoft ook de openbare preview van hybride Azure AI Content Safety (AACS) geïntroduceerd . Met dit initiatief kunnen ontwikkelaars zowel in de cloud als op het apparaat veiligheidsmaatregelen voor inhoud implementeren. De AACS Embedded SDK faciliteert realtime controles van de veiligheid van inhoud rechtstreeks op apparaten, zelfs zonder internetverbinding.

Bovendien onthulde Microsoft de preview van Protected Materials Detection for Code , die kan worden gebruikt met generatieve AI-toepassingen die code produceren om te identificeren of de LLM beschermde code heeft gegenereerd. Deze functie, die aanvankelijk alleen toegankelijk was via de Azure OpenAI Service, is nu beschikbaar voor integratie met andere generatieve AI-modellen die code genereren.

Deze updates verbeteren de betrouwbaarheid en toegankelijkheid van AI-technologieën voor contentmoderatie aanzienlijk en zorgen voor veiligere en betrouwbaardere AI-toepassingen op verschillende platforms en in verschillende omgevingen.

Bron

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *