Numrush

Waarom ieder bewerkt stukje media een bijsluiter zou moeten krijgen

Adobe MAX

Begin deze week bezocht ik Los Angeles, omdat Adobe MAX daar plaatsvond. Dit is de jaarlijkse conferentie van Adobe voor de creatieve industrie, waar het bedrijf al zijn nieuwe producten en updates aankondigt. Van updates voor Photoshop en Premiere, tot nieuwe software voor de ontwikkeling van augmented reality of het maken van digitale kunst.

Een rode draad door deze aankondigingen is sinds een paar jaar Adobe Sensei. Dit is de overkoepelende naam voor de kunstmatige intelligentie, die wordt gebruikt in de software van Adobe. Een concreet voorbeeld van wat er dankzij Adobe Sensei mogelijk wordt, is Content Aware Fill voor video in After Effects. Dit is een bekende functie uit Photoshop, waarmee je een selectie kunt maken en vervolgens wordt dat stuk van je foto (vaak een object) vervangen door een vulsel dat gebaseerd is op datgene om de foto heen.

Het is de makkelijkste manier om bijvoorbeeld een oneffenheid in iemands gezicht te verwijderen, maar ook om complete elementen uit een foto te verwijderen. Context Aware Fill komt nu ook beschikbaar voor video en tijdens de keynote van Adobe MAX toonde het bedrijf hoe makkelijk het is om bijvoorbeeld een rennend paard uit een woestijn te verwijderen. Dit kost je echt maar een minuut in After Effects.

Superhandig als je iets storends uit beeld wilt halen, maar het is natuurlijk een functie die je ook kunt gebruiken om beelden te manipuleren. Net zoals we recentelijk meerdere voorbeelden hebben gezien van hoe je iemands gezicht kunt vervangen in een video om zogenaamde deepfakes te creëeren.

Nepnieuws

Zoals we inmiddels gewend zijn dat foto’s kunnen worden gemanipuleerd en Photoshop, is het inmiddels bijna net zo eenvoudig om dit met video te doen. Zoals ik een jaar geleden al schreef heeft dat flinke gevolgen voor de verdere ontwikkeling van ‘nepnieuws’. Bewegend beeld is altijd het ultieme bewijs geweest om mensen te overtuigen dat iets werkelijk is gebeurd. En natuurlijk kon je daar altijd al manipuleren met ‘creatieve’ uitsnedes en montages, maar de toolkit voor een videomanipulator komt inmiddels op Photoshop-niveau. En wordt daarmee ook steeds toegankelijker voor niet-professionals.

Met de ontwikkeling van kunstmatige intelligentie is de discussie al opgelaaid over de verantwoordelijkheid die ontwikkelaars moeten nemen om de gevaren van deze technologie te beperken. In mijn ogen geldt dat ook hiervoor. De bedrijven die technologie ontwikkelen om beelden te manipuleren, zoals in dit geval Adobe, moeten de verantwoordelijkheid nemen.

Ze geven zelf aan zich hier bewust van te zijn. Voor Rush Talk sprak ik op Adobe MAX met Tatiana Mejia, verantwoordelijk voor de Product Marketing & Strategy van Adobe Sensei. “Elke tool kan op een verschillende manieren worden gebruikt en dat is iets waar we continu over nadenken”, vertelde ze. “Bij de presentatie van context aware fill hadden we het ook over of we op de één of andere manier een watermerk kunnen toevoegen, zodat makers en gebruikers kunnen zien bij elk videomateriaal kunnen zien of deze tool is gebruikt.”

Audio

Dat ze hier echt mee bezig zijn laat Adobe zien door de manier waarop ze bij de ontwikkeling van nieuwe technologie actief kijken naar de publieke reacties die daarop komen. Op Adobe MAX toont het bedrijf ieder jaar nieuwe ontwikkelingen die nog niet op de markt komen, onder de naam Adobe Sneaks.

Twee jaar geleden toonde Adobe tijdens Sneaks de mogelijkheid om de tekst van een audio-opname te bewerken. Zodra je een opname van 20 minuten van iemands stem hebt, kon je diegene vervolgens alles laten zeggen. Een technologie die natuurlijk vraagt om misbruikt te worden. Adobe kreeg na de presentatie zoveel kritiek dat besloten is om deze technologie niet op de markt te brengen.

De onderzoeker in kwestie keerde deze week terug het podium tijden Adobe Sneaks met een technologie die een stuk minder kwaad kan doen. Hij ontwikkelde een applicatie waarbij je stukje kunt zingen en deze opname vervolgens kunt omzetten naar een muziekinstrument naar keuze.

Bijsluiter

Het probleem is natuurlijk dat de ontwikkeling van dit soort technologie niet te stoppen is. En de vraag is ook of je de ontwikkeling van nuttige technologie moet tegenhouden, omdat deze misbruikt kan worden. Watermarking bij de bewerking van bestanden zou een oplossing kunnen zijn. Stel je toch eens voor dat je bij elk stukje media op internet een soort bijsluiter hebt met wat voor soort bewerkingen er zijn gedaan op het bronmateriaal.

Het punt is dat zoiets alleen te verwezenlijken is als het industriebreed wordt opgepakt. Door de bedrijven die de technologie ontwikkelen, maar ook door de platforms waarop je audio en video kunt publiceren. Dat klinkt als een utopie, maar het is in mijn ogen in ieder geval een poging waard.