Heb jij al afbeeldingen gevonden in Instagram met het signaal “Gemaakt met AI”? Misschien is het label verkeerd aangebracht. Het blijkt dat veel makers klagen dat het inhoudsplatform zijn nieuwe onderscheid toepast maakt niet uit wat en zonder de mogelijkheid tot aanpassing, wat bij veel fotografen niet goed zit...
“Made with AI” terwijl dat niet het geval is
Meta besloot een nieuwe stap te zetten in het controleren van de inhoud op zowel Instagram als Facebook door aan te kondigen dat het vanaf mei zou beginnen afbeeldingen taggen die zijn gemaakt met kunstmatige intelligentie, zodat gebruikers altijd weten welk type inhoud ze bekijken.
Het initiatief leek geen slecht idee: gezien de onbeperkte groei die dit soort inhoud heeft doorgemaakt, is het labelen ervan een goede manier om eerlijker tegen het publiek te zijn, omdat het in veel gevallen ook kan worden gebruikt om valse informatie te creëren en uiteindelijk ‘nep’-achtige informatie genereren op sociale netwerken – met het verdere gevaar dat deze viraal gaat.
Het probleem ontstond natuurlijk toen Instagram ermee begon verkeerd etiket beelden waarin AI niet heeft ingegrepen. Fotograaf Peter Yan was een van de eersten die hier alert op was en Adam Mosseri zelf via Threads waarschuwde: Instagram-manager, dat een foto van hem het label ‘Made with AI’ had gekregen terwijl dat niet het geval was:
Geplaatst door @yantasticBekijken in Discussies
Yan wijst erop dat hij Photoshop alleen gebruikte om "enkele plekken" op te ruimen en dat zijn publicatie automatisch door het platform werd getagd zonder zelfs maar de mogelijkheid te hebben deze te verwijderen.
Bewerken met AI-gebaseerde tools wordt ook gedetecteerd
Wat er gebeurde is dat de functie die de fotograaf in Photoshop gebruikte wel impliciete AI heeft, aangezien het een generatief vulgereedschap die deze technologie gebruiken. Hoewel dit soort oplossingen altijd voor deze doeleinden bij fotobewerking zijn gebruikt, kan het nu een probleem vormen voor makers die hun inhoud naar Instagram uploaden.
een redacteur van PetaPixel, bron van dit nieuws deed hij feitelijk de test: hij bewerkte een foto in Photoshop met een van deze tools een kleine markering op de muur van een gebouw verwijderen – onder deze lijnen – en de foto uploaden naar Instagram. Het resultaat was het automatisch labelen van de afbeelding als 'Made with AI'. Daarna uploadde hij dezelfde afbeelding opnieuw, maar deze keer bewerkt met een andere tool die niet op AI was gebaseerd, wat betekende dat het sociale netwerk het betreffende label niet toepaste.
Meta heeft geen details onthuld over de procedure die zij volgt inhoud detecteren met AI, maar het is duidelijk dat het niet altijd de juiste manier is om dit te doen. De mensen van PetaPixel hebben geprobeerd contact op te nemen met het bedrijf om dit beter op te helderen, maar tot nu toe hebben ze geen reactie ontvangen. Het is tijd om te kijken of ze op dit vlak actie ondernemen.