Spring til indhold
Tilbage til nyheder
Google vil lære sine AI-agenter, hvordan Gemini faktisk bruges

Google vil lære sine AI-agenter, hvordan Gemini faktisk bruges

AIUdviklingProduktivitet

AI-kodeværktøjer snubler tit over noget meget banalt: de ved ikke nok om de værktøjer, de selv skal bruge. Når et SDK er opdateret, eller en model har fået nye grænser og nye mønstre, kan modellen stadig sidde fast i gammel viden fra træningen. Google prøver nu at løse det med en ny Agent Skill til Gemini API. Ideen er enkel. I stedet for at håbe på, at modellen gætter rigtigt, får den frisk dokumentation om aktuelle modeller, SDK'er og kodeeksempler leveret direkte i arbejdsgangen.

💡 Det markante tal I Googles test på 117 kodningsopgaver steg Gemini 3.1 Pro Preview fra 28,2 til 96,6 procents succesrate, når Agent Skill var slået til.

Det gør historien relevant langt ud over Google selv. For danske virksomheder og offentlige teams er pointen, at meget af værdien i AI-kodearbejde ikke ligger i endnu en modelopgradering. Den ligger i at give modellen adgang til den rigtige kontekst på det rigtige tidspunkt. Det gælder både officielle SDK-dokumenter, interne integrationsmønstre og lokale regler for sikkerhed, logging og databehandling.

Google siger samtidig, at de ældre 2.5-modeller fik langt mindre ud af grebet. Forklaringen er ifølge selskabet svagere ræsonnement. Det er nyttigt, fordi det viser en grænse: frisk kontekst hjælper ikke nok, hvis modellen i forvejen er for svag til at bruge den ordentligt. Man kan altså ikke bare hælde dokumentation på en middelmådig model og forvente et godt resultat.

💡 Hvad der også er interessant The Decoder skriver, at Google også kigger på MCP-tjenester, og at skillen allerede ligger på GitHub.

Det praktiske råd er ret jordnært. Hvis et team bruger AI til integrationer mod Gemini, Microsoft, AWS eller egne platforme, så byg en kontrolleret vej ind til opdateret dokumentation. Det kan være en intern docs-service, en udvalgt mappe med eksempelkode eller et snævert værktøjslag omkring de vigtigste API'er. Start småt og mål på fejlrate, ikke bare hastighed.

Mandag morgen betyder det her én ting: stop med at vurdere AI-kodehjælp alene på modelnavnet. Spørg i stedet, hvilke kilder modellen faktisk får adgang til, hvor friske de er, og hvem der styrer dem. Det er dér forskellen mellem en smart demo og noget, der kan bruges i drift, for alvor viser sig.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?