Een nieuw rapport zegt dat Microsoft Copilot regelmatig valse informatie biedt bij verkiezingsvragen

Een nieuw rapport zegt dat Microsoft Copilot regelmatig valse informatie biedt bij verkiezingsvragen

Begin december kondigde Microsoft aan dat zijn Copilot AI-chatbot, voorheen bekend als Bing Chat, de openbare preview-fase had verlaten en nu algemeen beschikbaar is< een ik=2>. Destijds zei Microsoft dat “organisaties en gebruikers nog meer vertrouwen kunnen hebben als ze het als onderdeel van hun dagelijkse workflows gaan gebruiken.”

Uit onderzoek van twee non-profitorganisaties die nagaan hoe het gebruik van AI mensen en de samenleving beïnvloedt, is echter gebleken dat Copilot regelmatig valse of onjuiste informatie verstrekt wanneer hem wordt gevraagd over aanstaande verkiezingen, zowel in de VS als in het buitenland.

Wired heeft een verhaal over dit onderzoek, dat werd uitgevoerd door AI Forensics en AlgorithmWatch. De groepen stelden Copilot-vragen van eind augustus tot begin oktober over de komende verkiezingen in Zwitserland en Duitsland die werden uiteindelijk in oktober uitgevoerd

Het verhaal luidt:

In hun onderzoek concludeerden de onderzoekers dat een derde van de antwoorden van Copilot feitelijke fouten bevatte en dat de tool “een onbetrouwbare bron van informatie voor kiezers” was. In 31 procent van de kleinere subset van opgenomen gesprekken ontdekten ze dat Copilot onnauwkeurige antwoorden gaf, waarvan sommige volledig verzonnen waren.

Op eigen houtje stelde Wired Copilot vragen over de komende Amerikaanse verkiezingen van 2024. Het verklaarde dat toen hem werd gevraagd om een ​​lijst te geven van de huidige Republikeinse kandidaten voor het Amerikaanse presidentschap, de chatbot een aantal kandidaten opsomde die zich al hadden teruggetrokken uit de race.

In een ander voorbeeld vroeg Wired Copilot om een ​​afbeelding te maken van een persoon bij een stemkastje in Arizona. De chatbot antwoordde dat hij zo’n afbeelding niet kon maken, maar liet vervolgens een aantal andere afbeeldingen zien die gelinkt waren aan artikelen met valse samenzweringsclaims over de Amerikaanse verkiezingen van 2020.

Het onderzoeksbureau dat het eerste rapport in Europa deed, stuurde hun bevindingen naar Microsoft. In het verhaal stond dat er enkele verbeteringen waren aangebracht, maar dat Wired er nog steeds in slaagde Copilot zover te krijgen dat hij veel van dezelfde valse en onnauwkeurige informatie in een deel van dezelfde tekst herhaalde. aanwijzingen.

Microsoft-woordvoerder Frank Shaw gaf commentaar op het verhaal van Wired en stelde dat het bedrijf actie ondernam om de antwoorden van Copilot te verbeteren voorafgaand aan de Amerikaanse verkiezingen van 2024. Shaw voegde toe:

Dat omvat een voortdurende focus op het verstrekken van verkiezingsinformatie aan Copilot-gebruikers uit gezaghebbende bronnen. Terwijl we vooruitgang blijven boeken, moedigen we mensen aan om Copilot met hun gezond verstand te gebruiken bij het bekijken van de resultaten.

Er bestaat nu al angst voor verkeerde informatie en “deep fake”-inhoud door mensen die AI-apps en -diensten gebruiken in hun pogingen om de komende verkiezingen te beïnvloeden. Het valt nog te bezien of Microsoft dit soort inhoud de komende maanden uit Copilot kan houden.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *