Het energieverbruik van zowel Google Search als Gemini (en andere AI-modellen) is een complex en veelbesproken onderwerp. Er is zeker iets over te zeggen, hoewel exacte cijfers per individuele actie lastig te geven zijn door de vele variabelen.
Google Search:
Google schat dat één zoekopdracht ongeveer evenveel energie kost als het 17 seconden laten branden van een gloeilamp van 60 Watt.
Meer specifieke schattingen geven aan dat een Google-zoekopdracht ongeveer 0,0003 kWh (of 0,3 Wh) verbruikt. Dit is relatief laag. Google stelt ook dat ze al sinds 2007 CO2-neutraal zijn en steeds meer gebruikmaken van groene energie.
Gemini (en andere grote AI-modellen zoals ChatGPT):
AI-modellen zijn veel energie-intensiever dan traditionele zoekmachines.
Schattingen voor een prompt en antwoord van een AI-model zoals ChatGPT (en vergelijkbaar voor Gemini) variëren, maar liggen aanzienlijk hoger dan een Google-zoekopdracht. Sommige bronnen noemen 0,0029 kWh (2,9 Wh) per verzoek voor ChatGPT, wat ongeveer tien keer meer is dan een Google-zoekopdracht. Andere bronnen spreken zelfs van 60-100 Watt per zoekopdracht via ChatGPT.
Het totale dagelijkse energieverbruik van ChatGPT wordt geschat op meer dan 500.000 kWh.
Het overgrote deel van het energieverbruik van AI zit in de "training" van de modellen, wat dagen of maanden op volle kracht kan duren en enorme hoeveelheden energie verbruikt. Het daadwerkelijke "gebruik" (inference) van de modellen, hoewel minder energie-intensief per actie dan de training, gebeurt op zo'n gigantische schaal dat het cumulatieve verbruik zeer aanzienlijk is.
De energie die wordt verbruikt, is afhankelijk van verschillende factoren:
Complexiteit van de vraag/prompt:
Moeilijkheidsgraad: Een complexere vraag die meer rekenkracht en analyse vereist (bijvoorbeeld het genereren van lange teksten, complexe code of gedetailleerde analyses) zal aanzienlijk meer energie verbruiken dan een simpele vraag die een kort, direct antwoord behoeft.
Doorvragen in Gemini: Ja, doorvragen in Gemini zal in de regel meer energie kosten dan een enkele vraag. Elke nieuwe interactie, zeker als het een complexere voortzetting van de conversatie betreft, vereist opnieuw computationele middelen. Het model moet de context behouden en nieuwe informatie genereren, wat meer energie vreet. Een korte, eenvoudige vervolgvraag zal minder verbruiken dan een hele nieuwe, complexe vraag.
Type output:
Het genereren van afbeeldingen of video's met generatieve AI-modellen verbruikt aanzienlijk meer energie dan het genereren van tekst. Eén gegenereerde afbeelding kan bijvoorbeeld evenveel energie kosten als het volledig opladen van een telefoon.
Efficiëntie van de modellen en datacenters:
De efficiëntie van de algoritmes en de hardware waarop ze draaien (GPU's, servers) speelt een grote rol. Bedrijven zoals Google investeren enorm in energiezuinige datacenters en optimalisatie van hun algoritmes.
De locatie van het datacenter is ook belangrijk, omdat dit invloed heeft op de mix van energiebronnen (groene energie vs. fossiele brandstoffen) die wordt gebruikt.
Schaal van gebruik:
Het totale energieverbruik is een vermenigvuldiging van het verbruik per actie en het aantal acties. Hoe meer mensen deze diensten gebruiken, hoe hoger het totale energieverbruik.
Door de gebruiker te beïnvloeden factoren:
Hoewel de gebruiker geen directe invloed heeft op de infrastructuur, kunnen bewuste keuzes wel bijdragen:
Formuleer precieze vragen: Hoe specifieker en duidelijker de vraag, hoe efficiënter het AI-model een antwoord kan genereren, wat potentieel minder rekenkracht vereist.
Vermijd onnodige interacties: Denk goed na of een vraag echt nodig is, of dat de informatie ook elders sneller en met minder energie te vinden is.
Kies voor minder complexe outputs: Als je alleen tekst nodig hebt, vraag dan niet om een afbeelding of video.
Gebruik diensten die transparant zijn over hun duurzaamheid: Kies waar mogelijk voor diensten die aangeven hoe ze omgaan met hun energieverbruik en of ze groene energie gebruiken.
Het energieverbruik per specifieke actie (één prompt en antwoord) is technisch meetbaar, maar wordt door de techbedrijven niet gedetailleerd openbaar gemaakt. Dit komt door de complexiteit van de infrastructuur: een enkele zoekactie of prompt wordt verwerkt door een complex netwerk van servers, opslag en koelsystemen in datacenters. Het is lastig om de exacte energie die door jouw specifieke interactie wordt verbruikt te isoleren van het totale energieverbruik van het datacenter.
Onderzoekers en organisaties doen wel schattingen op basis van de complexiteit van de modellen, het aantal parameters, en de aard van de bewerkingen (FLOPS - Floating Point Operations per Second). Deze schattingen geven een indicatie van de energie-intensiteit. De bedrijven zelf, zoals Google, monitoren hun totale energieverbruik en zetten in op efficiëntie en hernieuwbare energie, maar ze geven zelden gedetailleerde cijfers per individuele gebruikersactie.
Er is ook kritiek dat wetgeving zich voornamelijk richt op het energieverbruik tijdens de training van AI-modellen, terwijl het energieverbruik tijdens het dagelijkse gebruik (inference) vaak wordt onderschat en minder transparant is.
Kortom, het energieverbruik van AI-modellen zoals Gemini is aanzienlijk en zal naar verwachting verder toenemen. Hoewel exacte metingen per actie moeilijk zijn te verkrijgen, is het duidelijk dat complexere interacties meer energie vragen en dat het totale verbruik door de schaal van gebruik een belangrijke overweging is voor duurzaamheid.
We kunnen een vergelijkbare analyse maken voor het waterverbruik van Google Search en Gemini. Het waterverbruik van datacenters, en daarmee van de diensten die daarop draaien, is een steeds belangrijker en controversiëler onderwerp.
Het waterverbruik van Google Search en Gemini is, net als het energieverbruik, indirect en voornamelijk gerelateerd aan de koeling van datacenters. Servers die constant aan staan en zware berekeningen uitvoeren, genereren enorme hoeveelheden warmte die moet worden afgevoerd om oververhitting te voorkomen. Water is hierbij een zeer efficiënt koelmiddel.
Exacte cijfers per individuele zoekopdracht of prompt zijn, net als bij energie, niet eenduidig en worden door bedrijven zelden tot op dit detailniveau bekendgemaakt. Er zijn echter wel algemene schattingen en trends:
Algemeen datacenter waterverbruik: Datacenters verbruiken per kilowattuur (kWh) aan energie doorgaans 0,79 tot 2 liter water voor koeling. Dit water verdampt voornamelijk in koeltorens om de warmte af te voeren.
Waterverbruik Google Search: Gezien de relatief lage energiebehoefte per zoekopdracht (circa 0,0003 kWh), zal het waterverbruik per individuele zoekopdracht met Google Search zeer klein zijn, waarschijnlijk in de orde van milliliters of zelfs micro-liters.
Waterverbruik Gemini (en andere AI-modellen): AI-modellen zoals Gemini zijn veel intensiever qua rekenkracht en daarmee energieverbruik. Als een AI-prompt 0,0029 kWh of meer verbruikt, en men 0,79 tot 2 liter water per kWh rekent, dan komt dit neer op:
0,0029 kWh * 0,79 L/kWh = 0,0023 liter (2,3 ml) per prompt (lage schatting)
0,0029 kWh * 2 L/kWh = 0,0058 liter (5,8 ml) per prompt (hoge schatting)
Echter, sommige studies schatten dat GPT-3 (vergelijkbaar met de onderliggende technologie van Gemini voor complexe taken) ongeveer 500 ml water verbruikt voor elke 10 tot 50 vragen. Dit zou neerkomen op:
10 vragen: 500 ml / 10 = 50 ml per vraag
50 vragen: 500 ml / 50 = 10 ml per vraag
Deze getallen tonen aan dat het waterverbruik van AI-modellen aanzienlijk hoger ligt dan dat van een traditionele zoekopdracht, en dit is een groeiende zorg.
Het waterverbruik in datacenters wordt beïnvloed door diverse factoren:
Koeltechnologie:
Natte koeling (verdampingskoeling): Dit is de meest waterintensieve methode, waarbij water verdampt om warmte af te voeren. Het is echter energiezuiniger dan luchtkoeling.
Luchtkoeling: Minder waterintensief, maar minder energiezuinig.
Vloeistofdompelkoeling: Hierbij worden servers ondergedompeld in een dielektrische vloeistof. Dit is zeer efficiënt, zowel qua energie als water, maar is nog niet wijdverbreid.
Geavanceerde gesloten systemen: Bedrijven investeren in systemen die water hergebruiken om verdamping en afval te minimaliseren. Desondanks is er altijd aanvulling nodig door verdamping.
Locatie van het datacenter:
Datacenters in warme en droge gebieden verbruiken relatief meer water voor koeling. Dit leidt tot conflicten met lokale gemeenschappen waar waterschaarste heerst (denk aan Google's plannen in Uruguay of datacenters in de VS).
De beschikbaarheid van verschillende waterbronnen (drinkwater, industrieel water, rioolwater, zeewater) beïnvloedt de keuze en de ecologische impact. Veel datacenters gebruiken nog steeds drinkwater.
Complexiteit van de taken/modellen:
Net als bij energieverbruik, geldt: hoe complexer de AI-modellen en hoe meer rekenkracht een zoekactie of prompt vereist, des te meer energie wordt verbruikt, en daarmee indirect meer water voor koeling.
Doorvragen in Gemini betekent meer rekenprocessen en dus ook een hoger waterverbruik. Elke interactie, zelfs een kleine vervolgvraag, draagt bij aan het totale verbruik.
Door de gebruiker te beïnvloeden factoren
De invloed van de individuele gebruiker is beperkt, maar bewustzijn is cruciaal:
Bewust gebruik: Elke zoekopdracht, elke prompt, draagt bij. Hoewel de impact per actie klein lijkt, telt het totale aantal interacties wereldwijd enorm op.
Ondersteun duurzame initiatieven: Kies, waar mogelijk, voor diensten van bedrijven die investeren in waterzuinige koeltechnieken en het gebruik van niet-drinkwaterbronnen. Google heeft bijvoorbeeld als doel om in 2030 waterneutraal te zijn, wat betekent dat ze meer water teruggeven dan ze verbruiken.
Formuleer efficiënt: Een beknopte, duidelijke vraag die direct tot het gewenste antwoord leidt, vermindert de noodzaak voor lange conversaties en opeenvolgende prompts, wat het totale verbruik kan minimaliseren.
Het waterverbruik per individuele actie is moeilijk direct te meten door de complexiteit van datacenteroperaties. Water wordt gebruikt in grote koelsystemen die een heel datacenter bedienen, niet per individuele server of transactie. Bedrijven meten wel het totale waterverbruik van hun datacenters en rapporteren dit in hun duurzaamheidsverslagen.
Google's totale waterverbruik: In 2022 gebruikte Google in totaal 21 miljard liter water voor hun datacenters, een stijging van 20% ten opzichte van 2021, deels door de groei van hun AI-inspanningen. Een deel hiervan is drinkwater.
Microsoft's waterverbruik: Microsoft rapporteerde in 2022 een verbruik van 6,4 miljard liter water, voornamelijk voor hun cloud-datacenters.
Onderzoekers proberen het waterverbruik van AI-modellen te schatten door het te koppelen aan het energieverbruik en de koelmethoden. Deze schattingen zijn complex en variëren sterk, afhankelijk van de gebruikte methodologie en aannames. De groeiende bezorgdheid over waterschaarste, met name in droge regio's, leidt wel tot meer druk op techbedrijven om transparanter te zijn en hun waterverbruik te verminderen.