Het is veel beeldmakers die werk op het internet hebben staan een doorn in het oog: hun werk kan ongevraagd (en onbetaald!) gebruikt worden door AI-modellen. Reden voor de universiteit van Chicago om een nieuwe tool te ontwikkelen die dit onmogelijk moet maken.
Verkeerd interpreteren
De tool, die Nightshade heet, ‘vergiftigt’ als het ware op subtiele wijze pixels in digitale afbeeldingen. Deze wijzigingen zijn niet waarneembaar voor het menselijk oog, maar zorgen ervoor dat AI-modellen die ze binnenkrijgen de inhoud verkeerd interpreteren. Een AI-model dat wordt blootgesteld aan beelden die met Nightshade zijn beveiligd kan bijvoorbeeld een kat voor een hond aanzien of artistieke stijlen door elkaar halen. Hierdoor worden de nauwkeurigheid en betrouwbaarheid van het gegenereerde beeld verstoord en wordt het niet of veel minder bruikbaar.
Controle over eigen werk
Deze tool betekent een belangrijke verschuiving in de machtsverhoudingen. In plaats van dat kunstenaars maar lijdzaam moeten toezien hoe hun werk wordt gekaapt of juridische stappen moeten ondernemen, maakt Nightshade proactieve verdediging mogelijk. Zo geeft Nightshade makers de mogelijkheid om controle te houden over hoe hun werk wordt gebruikt. Door hen een technologische stem te geven, luidt Nightshade een nieuw hoofdstuk in in het digitale tijdperk.
Open source
De onderzoekers willen de tool aanbieden in open source, zodat ook anderen hem kunnen bewerken of er eigen toepassingen mee kunnen bouwen. Het uitgangspunt is dat hoe meer mensen de tool gebruiken en er hun eigen versies van maken, hoe krachtiger Nightshade wordt.
Wil jij ook het beste voor jouw beeld? Neem dan contact op of kom langs.
Meet the print masters
Blijf op de hoogte van het laatste nieuws omtrent onze projecten, producten en de sign en print oplossingen.