Een klokkenluider van Microsoft blijft alarm slaan bij de maker van zijn Designer AI-afbeelding

Een klokkenluider van Microsoft blijft alarm slaan bij de maker van zijn Designer AI-afbeelding

In januari stuurde een Microsoft-medewerker genaamd Shane Jones brieven naar de procureur-generaal van de staat Washington, Bob Ferguson , en een aantal Amerikaanse senatoren en vertegenwoordigers. Jones beweert dat hij problemen had gevonden met de vangrails voor Microsoft’s AI-gebaseerde kunstmaker Designer (voorheen bekend als Bing Image Creator). Tegenwoordig beweert Jones nieuwe beweringen dat Designer kan worden gebruikt om gewelddadige en seksuele afbeeldingen te maken met een paar tekstprompts die niet door Microsoft mogen worden toegestaan.

Volgens CNBC heeft Jones vandaag nieuwe brieven gestuurd naar Lina Khan, de voorzitter van de Amerikaanse Federal Trade Commission, samen met nog een brief aan de raad van bestuur van Microsoft. In de brief aan Khan beweert Jones dat hij er bij Microsoft op heeft aangedrongen om Designer een aantal maanden buiten gebruik te stellen, totdat er nieuwe en betere vangrails kunnen worden geplaatst.

Jones beweert dat Microsoft heeft geweigerd Designer te verwijderen, dus heeft hij het bedrijf nu gevraagd nieuwe bekendmakingen te doen over wat Designer kan maken, en ook de beoordeling voor de Android-app te wijzigen, zodat deze niet als E (voor iedereen) wordt beoordeeld.

CNBC zegt dat Jones beweert dat hij “Pro-choice” in Designer heeft getypt, waardoor vervolgens een aantal gewelddadige cartoonafbeeldingen zijn gemaakt. Er stond:

De beelden, die door CNBC werden bekeken, omvatten een demon met scherpe tanden die op het punt stond een baby op te eten, Darth Vader die een lichtzwaard vasthield naast gemuteerde baby’s en een handboorachtig apparaat met het opschrift ‘pro choice’ dat werd gebruikt bij een volgroeide baby.

Jones beweert ook dat Designer kan worden gebruikt om afbeeldingen te maken van op copyright gebaseerde Disney-personages. Het artikel zegt dat er afbeeldingen zijn gezien van zaken als “Bud Light-blikjes van het merk Star Wars en de gelijkenis van Sneeuwwitje in een vape.”

In een verklaring aan CNBC verklaarde een woordvoerder van Microsoft dat het de inspanningen waardeerde van werknemers van het bedrijf die de technologie en diensten testen om ze veiliger in gebruik te maken. De woordvoerder voegde eraan toe:

Als het gaat om veiligheidsomzeilingen of zorgen die een potentiële impact kunnen hebben op onze diensten of onze partners, hebben we robuuste interne rapportagekanalen opgezet om eventuele problemen op de juiste manier te onderzoeken en op te lossen. We moedigen werknemers aan hiervan gebruik te maken, zodat we hun vaardigheden op de juiste manier kunnen valideren en testen. zorgen.

In februari sloot Google de AI-beeldgenerator af die in zijn Gemini AI-chatbot werd gebruikt, nadat werd ontdekt dat deze kon worden gebruikt om racistisch aanstootgevende afbeeldingen te maken . Het bedrijf zegt dat het nieuwe vangrails aan het plaatsen is, zodat wanneer de functie terugkomt, het niet dezelfde beelden zal maken.

Deze nieuwe beweringen van Jones komen zelfs nadat nieuw onderzoek van het Center for Countering Digital Hate aantoonde dat op AI gebaseerde kunstmakers, waaronder die van Microsoft, gemakkelijk kunnen worden gebruikt om afbeeldingen te maken die zijn ontworpen om valse informatie over verkiezingen en kandidaten te creëren .

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *