AI - Artificiell Intelligens

Vi flyttar! VÄr nya sida med faktabaserad optimism hittar du pÄ warpnews.se

🔎 Microsofts verktyg avslöjar deepfakes

Genom att analysera detaljer som Àr omöjliga för ögat att upptÀcka kan Microsofts AI-teknik ange sannolikheten för att filmer, foton och ljudinspelningar Àr förfalskade.

🔎 Microsofts verktyg avslöjar deepfakes

Deepfakes Àr falska videor, foton och ljudfiler som Àr vÀldigt svÄra att skilja frÄn Àkta vara. De kan förstÄs göra problemet med desinformation vÀrre Àn det redan Àr. Men Microsoft har byggt ett verktyg som ska hjÀlpa oss att sÄlla agnarna frÄn vetet.

Microsoft Video Authenticator anvÀnder AI för att avgöra hur stor risken Àr att en video blivit manipulerad. Verktyget visar i realtid hur stor sannolikhet det Àr att nÄgon manipulerat en bildruta i filmen. SÄ Àven om det bara Àr en vÀldigt liten del av videon som manipulerats kan Microsoft Video Authenticator ge tydligt besked om vilket parti i filmen som inte gÄr att lita pÄ.

För att angripa problemet frĂ„n andra hĂ„llet har Microsoft Ă€ven utvecklat en teknik dĂ€r den som skapar en video ska kunna ge den en ”vattenstĂ€mpel”. Om nĂ„got Ă€ndras i filen mĂ€rks det direkt och webblĂ€sare med mera kan lĂ€gga upp ett meddelande om att filmen förfalskats.

För den som vill lÀra sig mer om deepfakes har Microsoft tillsammans med bland andra USA Today skapat ett quiz. HÀr det gÄr att se hur bra du Àr pÄ att upptÀcka deepfakes.

💙 STÖTTA WARP NEWS – BLI MEDLEM IDAG

NÀr du blir medlem fÄr du full tillgÄng till alla vÄra artiklar och stöttar Warp News arbete med att sprida faktabaserad optimism över hela vÀrlden.

​
Du har loggat in pÄ Warp News
Bra! Gör klart resten av processen för full tillgÄng till Warp News
VÀlkommen tillbaka! Du Àr nu inloggad.
Ditt konto Àr aktivt och du har full tillgÄng till allt innehÄll.
Ditt konto Àr uppdaterat.
Uppdateringen misslyckades.