Microsoft, Google, OpenAI, Meta, Amazon, X en meer beloven de deepfakes van AI-verkiezingen te bestrijden

Microsoft, Google, OpenAI, Meta, Amazon, X en meer beloven de deepfakes van AI-verkiezingen te bestrijden

Er wordt steeds meer aandacht besteed aan het gebruik van generatieve AI-apps en -diensten om deepfake-afbeeldingen en -informatie te creëren. Dat kwam een ​​paar weken geleden zeker tot een hoogtepunt toen door AI gemaakte beelden van popzangeres Taylor Swift het sociale netwerk X overspoelden . Sommige rapporten beweren dat de afbeeldingen zijn gemaakt door de AI-beeldgenerator Designer van Microsoft .

Omdat 2024 ook een verkiezingsjaar is voor het ambt van de Amerikaanse president, bestaat er zelfs nog meer bezorgdheid dat deepfake-beelden van AI kunnen worden gebruikt om de stemmen bij die en andere verkiezingen negatief te beïnvloeden. Vandaag heeft een groot aantal technologiebedrijven aangekondigd dat ze zich zullen houden aan een nieuw akkoord waarin staat dat ze hun middelen zullen gebruiken om het gebruik van AI bij misleidende verkiezingsinspanningen te bestrijden.

De overeenkomst, die werd aangekondigd op de Veiligheidsconferentie van München, heet het AI-verkiezingsakkoord . De bedrijven die zich op dit moment bij deze overeenkomst aansluiten zijn:

  • Adobe
  • Amazone
  • Antropisch
  • Arm
  • ElfLabs
  • Googlen
  • IBM
  • Buiging AI
  • LinkedIn
  • McAfee
  • Meta
  • Microsoft
  • Gebruik
  • Open AI
  • Snap Inc.
  • Stabiliteit AI
  • TikTok
  • TrendMicro
  • Waarachtig
  • X

In het persbericht (in pdf-formaat) waarin het akkoord wordt aangekondigd, staat dat bovengenoemde bedrijven hebben ingestemd met het nakomen van deze toezeggingen ter bestrijding van deepfake-verkiezingsinspanningen:

  • Het ontwikkelen en implementeren van technologie om de risico’s met betrekking tot misleidende AI-verkiezingsinhoud te beperken, inclusief open source-tools waar nodig
  • Het beoordelen van modellen binnen de reikwijdte van dit akkoord om inzicht te krijgen in de risico’s die deze met zich mee kunnen brengen met betrekking tot misleidende AI-verkiezingsinhoud
  • Proberen de distributie van deze inhoud op hun platforms te detecteren
  • We proberen deze op hun platforms gedetecteerde inhoud op passende wijze aan te pakken
  • Het bevorderen van de veerkracht van de hele sector tegen misleidende AI-verkiezingsinhoud
  • Transparantie bieden aan het publiek over hoe het bedrijf hiermee omgaat
  • We blijven samenwerken met een diverse groep mondiale maatschappelijke organisaties en academici
  • Ondersteuning van inspanningen om het publieke bewustzijn, de mediageletterdheid en de veerkracht van de hele samenleving te bevorderen

Microsoft-president Brad Smith was een van de bedrijfsleiders die in het persbericht werden geciteerd. Hij beweerde:

Nu de samenleving de voordelen van AI omarmt, hebben wij de verantwoordelijkheid om ervoor te zorgen dat deze instrumenten niet als wapen worden gebruikt bij verkiezingen. AI heeft geen verkiezingsbedrog gecreëerd, maar we moeten ervoor zorgen dat het bedrog niet kan floreren.

Een voorbeeld van deepfakes bij verkiezingen vond een paar weken geleden plaats, toen robocalls met een door AI gegenereerde stem van de Amerikaanse president Joe Biden er bij bellers op aandrongen om niet te stemmen tijdens de voorverkiezingen in New Hampshire. Later bleek dat de oproepen afkomstig waren van een in Texas gevestigd bedrijf .

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *