Google har netop annonceret det, virksomheden beskriver som “den største AI-opgradering i Androids historie”. Og for en gangs skyld er det ikke bare AI-marketing, for der er virkelig store nyheder fra årets Android Show, hvor Google præsenterede selskabet den nye platform “Gemini Intelligence”, som skal gøre Android-telefoner langt mere proaktive og selvstændige i måden, de hjælper brugeren på.
I stedet for bare at reagere på tryk og kommandoer skal Android fremover kunne forstå sammenhænge på tværs af billeder, tekst, apps og stemme. Målet er i praksis at gøre telefonen til en slags personlig AI-agent, der ikke bare viser information, men også udfører handlinger automatisk. Og ja, det lyder fascinerende og skræmmende på samme tid.
Google beskriver blandt andet scenarier, hvor Gemini selv finder en pensumliste i Gmail, identificerer bøgerne og lægger dem i en indkøbskurv. Eller hvor brugeren tager et billede af en rejsebrochure, hvorefter AI’en selv finder lignende rejser og håndterer store dele af planlægningen.
Det er samtidig et ret tydeligt signal om, hvor aggressivt Google nu satser på AI i Android. Hvor smartphones tidligere primært har været platforme for apps, forsøger Google nu at flytte fokus over på AI som det centrale lag mellem brugeren og telefonen. Det er en ganske omfattende opdatering, Android altså står overfor.
Android skal forstå mere af brugerens hverdag
En af de største ændringer bliver, at Gemini Intelligence skal kunne arbejde på tværs af apps og forstå mere personlig kontekst end tidligere. Det betyder blandt andet, at Android i højere grad skal kunne forudsige behov og udføre opgaver i flere trin uden konstant input fra brugeren.
Google lancerer samtidig funktionen “Create My Widget”, hvor brugerne kan bygge egne widgets ved blot at beskrive dem med tekst. Det kan eksempelvis være en widget med specifik vejrinformation til cykling eller andre meget personlige behov.
Derudover får Chrome på Android også nye AI-funktioner, der skal hjælpe med research, opsummeringer og sammenligning af produkter direkte i browseren.
Googlebook skal være næste skridt efter Chromebook
Google brugte også præsentationen til at annoncere “Googlebook”, som de beskriver som en ny generation af laptops bygget omkring Gemini Intelligence.
Ifølge Google skal Googlebook fungere tættere sammen med Android-telefoner og gøre det muligt at køre mobilapps direkte på computeren uden installation. Samtidig introducerer Google funktionen “Magic Pointer”, hvor AI kan forstå indholdet på skærmen og reagere på det brugeren peger på.
Google beskriver eksempelvis scenarier, hvor man markerer et billede af en sofa i en webshop og derefter får AI-genererede visualiseringer af, hvordan den vil se ud i ens egen stue.
Gemini Intelligence rulles ud hen over sommeren 2026 og starter på nyere Pixel- og Samsung Galaxy-enheder. Hvornår de første Googlebooks kommer til Danmark, vides ikke.












