Din guide og ordliste til de mest almindelige AI-udtryk

Jeg har samlet en liste over de mest almindelige ord og udtryk, når vi taler kunstig intelligens og især den hurtige fremkomst af nye AI-modeller som ChatGPT, Bing og Bard.

Hvis du ikke forstår forklaringen, eller vil lære mere, så spørg chatbotterne. De er mestre i at skabe enkle forklaringer, og den bedste måde at lære om AI er ved at bruge det. Bare husk: Nogle gange tager de fejl.

Hvorfor Danglish?

Kalder du din harddisk for et fastpladelager? Nej, vel? I Danmark taler vi engelsk, når vi taler digital teknologi. Så jeg har beholdt det engelske udtryk, men written en forklaring på Danish.

Algorithm

En algoritme er et sæt instruktioner, der bliver givet til en computer for at løse et problem eller udføre beregninger, der omdanner data til nyttige oplysninger.

Algorithmic Bias

En fejl som følge af dårlige træningsdata og dårlig programmering, der får modeller til at træffe fordomsfulde beslutninger baseret på for eksempel køn eller race. Bias i modeller og data, og Big Techs ansvar, er et hot emne blandt andet i diskussionen om EU’s AI Act.

Alignment Problem

Tilpasningsproblemet handler om uoverensstemmelsen mellem målet med et AI-system og det output, det producerer. Et fejljusteret system kan forbedre ydeevnen og alligevel opføre sig skrupforkert. I 2015 autotaggede Google Fotos billedalgoritme fx sorte mennesker som ”gorillaer”.

Artificial General Intelligence (AGI)

En beskrivelse af programmer, der er lige så dygtige – eller endda dygtigere – end et menneske. En generel kunstig intelligens er stadig kun en fremtidsmulighed. Men på afgrænsede områder kan AGI i dag outperforme mennesket.

Artificial Neural Network (“ANN”)

Kunstige neurale netværk er computeralgoritmer, der bruges inden for en gren af ​​AI, der kaldes deep learning. De består af lag af kunstige neuroner, der er indbyrdes forbundne på en måde, der efterligner den menneskelige hjernes neurale kredsløb.

Autonomous Agents

En AI-model, der både har et mål og nok værktøjer til at opnå det. For eksempel er selvkørende biler autonome agenter, der bruger sensoriske input, GPS-data og kørealgoritmer til at træffe uafhængige beslutninger om, hvordan de skal navigere og nå destinationer.

Big Data

Big data refererer til datasæt, der er meget mere massive og komplekse end traditionelle data. Disse datasæt  har hjulpet de nuværende AI-modeller til at præstere med høje niveauer af nøjagtighed.

Chinese Room

Det kinesiske rum-tankeeksperiment hævder, at et computerprogram, uanset hvor tilsyneladende intelligent det lader til at være, aldrig kan blive bevidst og i stand til virkelig at forstå egen adfærd. Eksperimentet bliver ofte nævnt i forbindelse med værktøjer som ChatGPT, som kan virke bevidste, men faktisk blot præsenterer output baseret på forudsigelser lavet af den underliggende model.

Deep Learning

Deep learning er en kategori inden for maskinlæringsgrenen af ​​AI. Deep-learning-systemer bruger avancerede neurale netværk og kan behandle store mængder komplekse data for at opnå højere nøjagtighed. Disse systemer klarer sig godt på relativt komplekse opgaver og kan endda udvise menneskelignende intelligent adfærd.

Diffusion Model

En diffusionsmodel er en AI-model, der lærer ved at tilføje tilfældig “støj” til et sæt træningsdata, før det fjernes, og derefter vurdere forskellene. Målet er at lære om de underliggende mønstre eller sammenhænge i data, som ikke umiddelbart er indlysende. Disse modeller er designet til at korrigere sig selv, når de møder nye data og er derfor særligt anvendelige i situationer, hvor der er usikkerhed, eller hvis problemet er meget komplekst.

Emergent Behaviour

Færdigheder, som AI kan udvise, selv om den ikke eksplicit var bygget til det. Nogle eksempler omfatter emoji-fortolkning, sarkasme og brug af sprog, der inkluderer køn.

Explainable AI

Det er et spirende, tværfagligt felt, der vil skabe metoder, som kan øge brugernes tillid til processerne i AI-systemer. På grund af kompleksiteten af AI-modeller er deres interne funktioner ofte uigennemsigtige, og vi kan ikke altidmed sikkerhed sige, hvorfor de producerer de output, de gør. Explainable AI sigter mod at gøre disse “black box”-systemer mere gennemsigtige.

Generative AI

Det er AI-systemer, der skaber nyt indhold – inklusive tekst-, billed-, lyd- og videoindhold – som svar på prompter. Populære eksempler inkluderer ChatGPT, Stable Diffusion og Midjourney.

Hallucination

Hallucinationer er uventede og forkerte svar fra AI-programmer, der kan opstå af årsager, som endnu ikke er fuldt kendte. En sprogmodel kan for eksempel lyve om data, du beder den analysere, eller opfinde fakta om begivenheder, der ikke er i dens træningsdata.

Labelling

Datamærkning er den proces, hvor data bliver kategoriseret for at hjælpe AI-modellen med at forstå den. Det gøres ved at identificere strukturer som fx billede, tekst, lyd eller video og tilføje etiketter som tags og klasser til data.

Large Language Models (LLM)

En anvendelse af AI – normalt generativ – der sigter mod at forstå, engagere og kommunikere med sprog på en menneskelignende måde. Disse modeller er kendetegnet ved deres store størrelse. For eksempel Googles PaLm-model er er trænet på 540 milliarder parametre.

Machine Learning

Machine learning er en gren af ​​AI, der involverer træning af AI-systemer til at kunne analysere data, lære mønstre og lave forudsigelser uden specifik menneskelig instruktion.

Multimodal AI

En form for kunstig intelligens, der kan forstå og arbejde med flere typer information, herunder tekst, billede, tale og mere. Det giver AI mulighed for at forstå og udtrykke sig selv i flere dimensioner, hvilket giver både en bredere og mere nuanceret forståelse af opgaver.

Narrow AI

Nogle AI-algoritmer har et ensporet sind. Bogstaveligt talt. De er designet til at gøre én ting og intet mere. Hvis en smal AI-algoritme kan spille dam, kan den ikke spille skak. Et typisk eksempel er en anbefalingsalgoritme på Netflix eller Amazon.

Natural Language Processing (“NLP”)

Mens store sprogmodeller er en specifik type AI-model, der bruges til sprogrelaterede opgaver, er naturlig sprogbehandling det bredere AI-felt, der fokuserer på maskinernes evne til at lære, forstå og producere menneskeligt sprog.

Parameters

Parametre er de indstillinger, der bliver brugt til at tune maskinlæringsmodeller. Tænk på dem som programmerede vægte og skævheder, en model bruger til at lave en forudsigelse eller udføre en opgave. Et eksempel er antallet af neuroner i et givet lag af det neurale netværk.

Prompt Chaining

Processen med at bruge tidligere interaktioner med en AI-model til at skabe nye, mere finjusterede svar, specifikt i prompt-drevet sprogmodellering. Beder du for eksempel ChatGPT om at skrive en sms til en ven, kan AI’en huske ting som det tonefald, du bruger eller indholdet fra tidligere samtaler og bruge det i outputtet.

Prompt Engineering

Bag hypen er prompt engineering blot en struktureret tilgang til at give instrukser til AI’en. Et eksempel kunne være at bede ChatGPT om, ”Skriv en mail om fredagsbar”.

Sentiment Analysis

Følelses- eller stemningsanalyse er en teknik, hvor AI-sprogmodeller bliver brugt til at identificere og fortolke følelserne bag en tekst. Virksomheder kan eksempelvis bruge det til at tracke brugeranmeldelser.

Supervised Learning

Overvåget læring er en maskinlæringstilgang, hvor mærkede data bruges til at træne en algoritme til at lave forudsigelser. Algoritmen lærer at matche de mærkede inputdata til det korrekte output. Efter at have lært af en lang række eksempler, kan den fortsætte med at lave forudsigelser, når den præsenteres med nye data.

Training

Træning er processen med at forfine AI ved hjælp af data, så den er bedre egnet til en opgave. En AI kan trænes ved at indlæse data baseret på, hvad du vil have den til at lære af; det kan fx være at fodre en chatbot med oplysninger om ens virksomheds produkter og services.

Transformer

En transformer er en type deep learning-model, som især bliver brugt til sprogbehandling. Et eksempel er den generative pre-trained transformer (GPT), som ChatGPT chatbot kører på. GPT-modellen bruger en transformer til at lære af en meget stor mængde umærket tekst.

Turing Test

Turing-testen blev foreslået af datalogen Alan Turing i 1950. Hvis en maskine i samtale ikke er til at skelne fra et menneske, udviser den menneskelig intelligens. LLM’er har i dag bestået Turing-testen uden dog at være bevidste og intelligente, så testen bliver ikke længere anset som brugbar.

Unsupervised Learning

Uovervåget læring er en maskinlæringstilgang, hvor algoritmer trænes på umærkede data. Uden menneskelig indgriben udforsker systemet mønstre i dataene med det formål at opdage uidentificerede mønstre, der kan bruges til yderligere analyse. AI’en lærer så at sige af sig selv.

Vil du vide mere?

Spørg Bing eller ChatGPT – eller tag fat i mig.