Microsoft Azure OpenAI Service biedt nu realtime detectie van onrechtmatige verzoeken

Microsoft Azure OpenAI Service biedt nu realtime detectie van onrechtmatige verzoeken

De afgelopen maanden zijn er berichten geweest dat gebruikers met succes generatieve AI-services hebben gebruikt om inhoudsbeperkingen te omzeilen en inhoud te creëren. Een opmerkelijk voorbeeld deed zich eerder dit jaar voor toen expliciete deepfake-beelden van popartiest Taylor Swift op sociale media circuleerden. Deze afbeeldingen zijn naar verluidt geproduceerd door een groep die specifieke tekstprompts gebruikte in de AI-beeldgenerator Microsoft Designer.

Vandaag heeft Microsoft een openbare preview onthuld van een nieuwe functie die beschikbaar is op zijn Azure OpenAI Service. Met deze service kunnen bedrijven en organisaties de generatieve AI-modellen van OpenAI gebruiken via de Azure-cloudservers van Microsoft. De onlangs geïntroduceerde functie “Risico- en veiligheidsmonitoring” is bedoeld om bedrijven een live overzicht te bieden van het gebruik van hun AI-systemen en om eventuele pogingen tot misbruik door individuen te identificeren.

azuurblauwe openAI-services

Volgens een recente blogpost heeft Microsoft een functie geïntroduceerd die gegevens kan weergeven over verschillende verzoeken van eindgebruikers op hun AI-services die als onveilig worden beschouwd. Deze verzoeken omvatten:

  • Totaal aantal geblokkeerde verzoeken en blokkeringspercentage
  • Verdeling van geblokkeerde verzoeken per categorie
  • Blokkeer het tarief in de loop van de tijd per categorie
  • Verdeling van de ernst per categorie
  • Blokkeer het aantal geblokkeerde verzoeken en het tarief

Met behulp van deze informatie kunnen bedrijven hun AI-inhoudsbeveiligingen aanpassen om ervoor te zorgen dat hun diensten niet worden gebruikt op een manier die in strijd is met hun richtlijnen.

Daarnaast is er een functie die bedrijven helpt bij het identificeren van gebruikers die herhaaldelijk beledigende of schadelijke verzoeken indienen bij hun AI-diensten. Microsoft stelt:

Als inhoud van een gebruiker als schadelijk wordt gemarkeerd en het gedrag van gebruikersverzoeken wordt gecombineerd, zal het systeem beoordelen of de gebruiker mogelijk misbruik maakt of niet. Vervolgens is er een samengevat rapport beschikbaar in Azure OpenAI Studio, zodat u verdere actie kunt ondernemen.

Het bedrijf heeft de mogelijkheid om zijn systeem aan te passen in overeenstemming met zijn eigen regels en voorschriften om zich te beschermen tegen mogelijke inbreuken veroorzaakt door deze lastige eindgebruikers.

De onlangs toegevoegde bewakingsmogelijkheden voor Azure OpenAI Service zijn toegankelijk voor klanten in de regio’s VS-Oost, Noord-Zwitserland, Centraal-Frankrijk, Centraal-Zweden en Canada-Oost. Het is momenteel onduidelijk wanneer deze openbare preview naar andere landen zal worden uitgebreid of algemeen beschikbaar zal worden.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *