“Bigger is better” heeft zijn beste tijd gehad. Terwijl de AI-modellen groeien en zich gulzig volvreten met wereldwijde data, gooit SETUP het over een andere boeg. We breken een lans voor AI-streekproducten en bouwen een AI-model met hyperlokale data. Vergeet monsterlijke modellen zoals GPT-4 en ervaar a sense of place in onze AI-dorpsdisco.
Better ideas not bigger models
Sam Altman, de CEO van OpenAI, liet op het MIT-congres van afgelopen zomer een bom vallen. Hij verklaarde dat het tijdperk van gigantische AI-modellen zoals GPT-4 ten einde loopt. Om vooruitgang te boeken heeft het AI-veld niet zozeer grotere AI-modellen nodig, maar nieuwe ideeën, aldus Altman.
Terwijl techbedrijven hun taalmodellen steeds groter maken, wijzen experts erop dat we juist baat hebben bij kleinere modellen. Deze zijn makkelijker te trainen met data van hoge kwaliteit. Volgens AI-expert Jennifer Prendki kan het AI-veld op dit punt iets leren van natuurkundigen. Vanuit de filosofie “hoe eenvoudiger hoe eleganter” proberen zij hun modellen zoveel mogelijk te vereenvoudigen. Dit in tegenstelling tot het AI-veld, waar meer data en toenemende complexiteit al jaren de heersende tendens zijn. Maar dat lijkt nu op losse schroeven te staan.
Sinds de komst GPT-4 ervaren gebruikers van ChatGPT een achteruitgang in kwaliteit. Het programma geeft slechtere antwoorden. Dat komt vooral door gewenning: mensen gebruiken het voor steeds meer taken waardoor ze eerder tegen de beperkingen aanlopen. Maar er is meer aan de hand. Toen de onderliggende architectuur van GPT-4 uitlekte, ontstond bij onderzoekers het vermoeden dat OpenAI de prestaties van ChatGPT bewust verslechterde om rekentijd en kosten te besparen. Wat de reden voor de kwaliteitsafname ook mag zijn, het uitgangspunt dat groter gelijkstaat aan beter is niet langer vanzelfsprekend.
Zo bleek onlangs dat grotere contextvensters voor AI-taalmodellen de prestaties van het model niet verbeteren. Naarmate de invoercontext langer wordt, nemen de prestaties af. Een ander probleem dat opdoemt is model collapse: AI-modellen worden steeds meer getraind op AI-gegeneerde data waardoor de kwaliteit drastisch omlaag gaat en de output eenvormiger wordt. De gegevens die een AI-model genereert besmetten de trainingsdata van een volgend model, waardoor de output vervaagt en vervormt.
Net zoals de kwaliteit van een JPEG-afbeelding afneemt naarmate je deze vaker bewerkt, leidt het via AI kopiëren van menselijke trainingsdata tot slechtere kwaliteit. ChatGPT wordt daarom ook wel “the blurry jpeg of the web” genoemd. Of, zoals publicist Carl Franzen schrijft: een kloon van een kloon die steeds dommer wordt.
Betekenisloze eenheidsworst
Het afnemen van kwaliteit als gevolg van kopieergedrag is natuurlijk niet nieuw. Mensen hebben altijd al de behoefte gehad om elkaars maakprocessen en culturele producten te imiteren. Maar met AI kunnen bedrijven deze behoefte nog meer opschalen en commercieel uitbaten. Daardoor worden niet alleen onze culturele producten, maar ook onze culturele waarden, ambities en gedragingen onderworpen aan categorisatie, standaardisatie, replicatie, iteratie en optimalisatie.
Neem bijvoorbeeld muziek. Spotify gebruikt een AI-model om te bepalen welke nummers in onze suggestielijst komen. Het gevolg is dat muzikanten liedjes maken die bij het model passen. Op deze manier worden complexiteit, variatie en verrassing afgestraft omdat het AI-model deze aspecten niet herkent en oppakt.
Volgens muziekonderzoekers werd onze muziek in de afgelopen decennia niet alleen simpeler en eenvormiger, maar ook voorspelbaarder en korter. Dankzij Spotify knippen artiesten opbouwende introductiestukjes uit hun nummers weg, om zo de meest aanstekelijke stukjes aan het begin te krijgen. Dat doen ze omdat Spotify een nummer alleen als ‘’beluisterd’’ kwalificeert als het dertig seconden lang is afgespeeld. Die kans neemt toe als je het meest aanstekelijke stukje naar het begin verplaatst.
Ook schrijvers zijn bekend met dit aanpassingsproces. Zij krijgen van uitgeverijen het advies om boeken te schrijven die goed aansluiten bij de look en feel van een social media feed. Op deze manier wordt de vorm van het boek aangepast aan het type content waar mensen online aan gewend zijn.
Of het nu gaat om musici of schrijvers, creatieve makers worden steeds meer gevormd door het systeem van technologie, in plaats van dat zij het systeem van technologie zelf kunnen vormgeven. Dat makers letterlijk en figuurlijk steeds meer naar de pijpen van AI gaan dansen is geen gevolg van AI, maar eerder van de commerciële cultuurindustrie waar AI de ultieme optimaliseerder van is. In de woorden van kunstcriticus Ben Davis:
Zoals Davis terecht beschrijft is dit type cultuurkritiek ouder dan kunstmatige intelligentie. Al sinds de industriële revolutie maken kunst- en cultuurcritici zich zorgen over technologisch aangedreven standaardisatieprocessen. Daarom beschouwen we deze processen als een vanzelfsprekendheid; iets wat we niet kunnen tegenhouden en maar gewoon moeten omarmen.
Maar het feit dat we ooit begonnen zijn om iets op een bepaalde – technologische – manier te doen is geen goede reden om het op diezelfde manier te blijven doen. Computerwetenschapper Joseph Weizenbaum zei ooit: “Strengthening a particular technique by putting muscles on it, contributes nothing to its validity”.
Als er iets is dat nu ter discussie moet staan, dan is het wel de validiteit van ons eeuwige technologische optimalisatieproces. Want net zoals in ons klimaat tippingpoints ontstaan – punten waarop een klimatologische ontwikkeling zich niet meer laat bijsturen – kunnen deze punten ook in onze omgang met technologie ontstaan. Bijvoorbeeld een punt waarop we zo gewend zijn om alle facetten van ons leven aan computerlogica te onderwerpen, dat we ons daar niet meer van bewust zijn. Een punt waarop we het robotiserende tij niet meer kunnen of willen keren omdat een andere werkelijkheid nooit is gekend of voorgesteld.
De desillusie van generatieve AI
De vraag is of we zo’n cultureel tippingpoint bij generatieve AI bereiken. Bij social media hebben we gezien hoe een optimistisch verhaal over toenemende verbondenheid veranderde in een nachtmerrie over polarisatie, surveillancekapitalisme en verslaving. Social media werden massaal “toxisch” verklaard en het is nog altijd een maatschappelijk vraagstuk waar we geen antwoord op hebben.
Met generatieve AI lijken we een vergelijkbaar proces van desillusie door te maken. Ook hier begint langzaam door te dringen dat het sprookje over meer creativiteit en minder repetitief werk niet uitkomt.
Ten eerste vanwege de klimaatimpact en het energie- en waterverbruik van modellen als ChatGPT. Ten tweede vanwege auteursrecht schendingen: het werk van kunstenaars, musici en schrijvers wordt zonder enige compensatie door techbedrijven gebruikt als trainingsmateriaal voor hun AI-modellen. En ten derde omdat generatieve AI niet voor minder, maar juist voor meer repetitief werk zorgt. Zo maakt generatieve AI veel fouten die handmatig gecontroleerd en gecorrigeerd moeten worden. Ook zien we dat steeds meer mensenwerk gereduceerd wordt tot eenvoudig en repetitief prompt-engineer werk.
Uiteindelijk zorgt AI voor meer repetitief werk omdat we als mensheid nooit klaar zijn met het trainen van AI. Aangezien onze fysieke wereld voortdurend blijft veranderen, zijn er altijd mensen nodig die onze fysieke werkelijkheid AI-leesbaar moeten maken en de AI-systemen moeten voeden, controleren en bijsturen. Dit werk is alles behalve fraai. AI-werkers moeten naar de meest afschuwelijke teksten en beelden kijken om de trainingsinput en output van generatieve AI op te schonen.
Bovenstaande problemen worden vaak afgeschilderd als de “negatieve kanten” van AI. Maar het gaat hier niet om negatieve kanten. Het gaat hier om inherente aspecten van AI. AI is geen technologie, maar een efficiency gedreven ideologie die draait om het statistisch optimaliseren van de mens en haar omgeving voor economische doeleinden. De vraag is dan ook niet hoelang we de deze ‘’offers’’ nog moeten accepteren voordat AI “beter” wordt. De vraag is welke opvatting van beter we met AI faciliteren.
Volgens techniekfilosoof Nolen Gertz bedoelen we met ‘’betere AI’’, AI die overeenkomt met menselijke waarden. Daarom doen we er alles aan om AI te stroomlijnen met menselijke waarden. Maar waar we ons niet bewust van zijn, is dat onze waarden al decennialang zijn ontmenselijkt door ze te reduceren tot efficiency. Het stroomlijnen van AI met menselijke waarden betekent in de praktijk dan ook niets anders dan het stroomlijnen van AI met efficiency:
Oftewel: zijn wij als mensheid nog wel in staat om de inhumane wereld die we hebben gecreëerd als inhumaan te herkennen? Kunnen we ons nog herinneren dat mens-zijn meer betekent dan het aanleveren, verwerken en manipuleren van data?
Als we inderdaad voorbij een cultureel tippingpoint zijn geraakt waarbij onze computationele cultuur niet alleen onze kunst, maar ook onze geest heeft opgeslokt dan geloof ik niet dat we nog zullen verlangen naar die “different, more human values” waar Gertz over spreekt. Dan zijn we al dusdanig gerobotiseerd dat we geen menselijke diversiteit en culturele diepgang meer verlangen en op waarde kunnen schatten.
Dan nemen we in plaats van echte diversiteit genoegen met cosmetische AI-diversiteit zonder de frictie van daadwerkelijk menselijke verschillen. En luisteren we naar geesteloze muziekteksten over niet geleefde emoties. We zullen niet merken dat onze muzieknummers, gedichten, boeken en videoclips geen enkel spoor meer bevatten van een individuele menselijke geest. Of dat onze afbeeldingen geen sense of place meer bevatten. Al het individuele is geofferd aan de statistisch uitgebalanceerde echoput waar alleen nog maar generieke, betekenisloze contentdrab uitkomt.
Hoe kan het anders? Hoe creëren we opnieuw betekenis in een AI-gemedieerde wereld die steeds generieker aanvoelt?
Beleef ambachtelijke AI
Om deze vraag te beantwoorden liet SETUP zich inspireren door streekproducten. De Europese Unie beschermt meer dan 1000 streekproducten zoals goudse kaas en feta. Op deze manier probeert de EU de kwaliteit van een product te waarborgen, en de afzetmarkt van ambachtelijke en lokale producenten te beschermen. Als het aan SETUP ligt is het tijd om het kleine, lokale en bijzondere ook binnen de AI-wereld te waarborgen.
Als tegenwicht voor steeds grotere AI-modellen die beelden genereren die vooral sameness uitstralen, bouwden we een AI-beelgenerator met hyperlokale data. Niet zozeer om betere AI te maken, maar om betekenisvollere AI te creëren waarbij het kleine en bijzondere niet verloren gaat in de singularity of sameness.
We bouwden een AI-beeldgenerator op basis van 26.104 foto’s, gemaakt tussen 2002-2007 in Discotheek De Stunt in Epe. Het leverde een nostalgische mix op van geblondeerde stekeltjes, azuurblauwe spaghettibandjes en Passoa jus.
Wil je het resultaat zelf komen ervaren? Kom dan op 29 september naar het Betweter festival in TivoliVredenburg. In onze AI-geassisteerde experience brengen we een ode aan de vergane glorie van failliete dorpsdisco’s in het algemeen, en aan Discotheek de Stunt in Epe in het bijzonder. Meer info en tickets.