Hur företag reagerar på ökningen av AI-innehåll
På grund av dessa problem arbetar stora teknikföretag på sätt att förbättra mediernas äkthet och härkomst. Som en del av sin årliga Build-konferens meddelade Microsoft att dess Bing Image Creator- och Designer-verktyg nu skulle ha nya funktioner för medieursprung.
Användare kommer att kunna kontrollera om bilder eller videor har skapats av AI med hjälp av kryptografiska metoder som innehåller information om var innehållet kommer ifrån.
Men för att det här systemet ska fungera måste olika plattformar godkänna specifikationen C2PA (Coalition for Content Provenance and Authenticity).
På samma sätt har Meta släppt ett verktyg som heter Meta Video Seal som kan lägga till osynliga vattenstämplar till videoklipp gjorda av AI.
Detta verktyg med öppen källkod är tänkt att fungera med befintlig programvara utan problem, vilket gör det lättare att hitta innehåll som skapats av AI.
Video Seal lovar att vara resistent mot vanliga redigeringar som suddighet och beskärning, till skillnad från äldre vattenmärkningstekniker som hade problem med videokomprimering och manipulation.
Problem och begränsningar
Även med dessa förbättringar finns det fortfarande problem med att få många människor att använda dessa tekniker. Många utvecklare kan vara tveksamma till att övergå från befintliga proprietära lösningar till alternativ med öppen källkod som Video Seal.
Meta planerar att hålla workshops på stora AI-konferenser och göra en offentlig topplista som jämför olika vattenmärkningsmetoder för att få fler att arbeta tillsammans.
Dessutom är de vattenmärkningsmetoder vi har nu inte alltid tillräckligt starka eller effektiva när det kommer till videoinnehåll.
Två huvudsakliga metoder för att bekämpa AI-genererat innehåll
I kampen mot AI-genererat innehåll har två distinkta strategier vuxit fram:
- Vattenmärkning (förebyggande metod):
- Fungerar genom att lägga till osynliga signaturer till innehåll i samband med att det skapas
- Fungerar som ett digitalt certifikat som visar att ”detta gjordes av AI”
- Verktyg som Meta Video Seal och Microsofts proveniensfunktioner representerar detta tillvägagångssätt
- Den största fördelen är omedelbar identifiering av AI-innehåll
- Detektionsverktyg (analytisk metod):
- Analyserar befintligt innehåll för att avgöra om det var AI-genererat
- Letar efter mönster och egenskaper som är typiska för AI-skapat innehåll
- Särskilt användbart för innehåll som inte markerades när det skapades
- Dessa verktyg utgör vår andra försvarslinje
Båda metoderna är nödvändiga eftersom de kompletterar varandra: vattenmärkning förhindrar missbruk, medan detekteringsverktyg hjälper till att identifiera omärkt innehåll.
Verktyg och teknik för upptäckt
AI-genererat innehåll kan hittas på fler sätt än bara vattenmärkningsteknik. Nya detekteringsverktyg använder komplexa algoritmer för att titta på både text- och bildinnehåll.
- Originalitet, djupinlärningsalgoritmer används av AI för att hitta mönster i text som genererats av AI.
- GPTZero tittar på språkliga strukturer och ordfrekvenser för att se skillnaden mellan innehåll som har skrivits av människor och innehåll som har skapats av maskiner.
- CopyLeaks använder N-gram och syntaxjämförelser för att hitta små förändringar i språket som kan vara tecken på AI-författarskap.
Dessa verktyg är tänkta att ge användarna korrekta åsikter om hur verkligt innehåll är, men hur bra de fungerar kan variera mycket.
Sammanfattningsvis
I takt med att generativ AI utvecklas blir det allt viktigare att skydda den digitala autenticiteten. Microsoft och Meta går i bräschen med banbrytande standarder för äkthet av innehåll och verifiering av medieursprung.
För att bekämpa deepfakes på ett effektivt sätt behöver vi både en branschomfattande användning av dessa verktyg och ett starkare samarbete mellan teknikföretag. Den framtida integriteten för digitalt innehåll är beroende av att detektionstekniken utvecklas snabbare än AI-genererade bedrägerier.
Faktum är att vi nyligen har tagit upp hur YouTube tar liknande steg genom att introducera nya AI-detekteringsverktyg för kreatörer och varumärken. Deras tillvägagångssätt inkluderar syntetisk röstidentifiering och AI-genererad ansiktsigenkänningsteknik, vilket ytterligare visar hur stora plattformar arbetar för att skydda innehållets autenticitet i AI-eran.