AI Ord med Q, R, S eller T
På denne side går vi ind i AI-verdenen ved at se på ord og begreber, der starter med Q, R, S og T. Fra 'Quantum Computing' til 'Turing Test', er denne guide din billet til en dybere forståelse af AI. Vores mål er at præsentere disse emner på en måde, der taler både til den nysgerrige nybegynder og den erfarne praktiker.
Q
Q-learning
A type of reinforcement learning in which an agent learns to create a policy based on a function of the quality of actions. It is an important concept in AI and could be used in future version these models.
Q-learning: Læring fra tidligere erfaring.
Forestil dig, at du er i en labyrint og prøver at finde udgangen. Hver gang du tager et skridt, får du et lille hint eller belønning, der fortæller dig, om du er tættere på udgangen. Når du vandrer rundt, begynder du at huske, hvilke stier der giver dig bedre hints. Med tiden lærer du den bedste rute ud af labyrinten baseret på disse tip. Q-learning er som denne proces: Det er en måde for computere at lære de bedste handlinger at udføre i forskellige situationer ved at afprøve dem og huske resultaterne.
Quantization
The process of reducing the number of distinct values that a continuous set of values can take. In terms of machine learning, quantization can be used to compress models and improve their speed and efficiency.
Kvantisering: Metode til komprimering af modellen, så den bliver hurtigere.
Forestil dig, at du forsøger at beskrive farverne på en regnbue ved kun at bruge en kasse med grundlæggende farveblyanter. I stedet for at have alle mulige nuancer, vælger du den farveblyant, der er tættest på hver farve i regnbuen. Du har lige forenklet den komplekse regnbue med et par farvekridt. I teknologiverdenen er kvantisering ens: den forenkler detaljerede oplysninger for at gøre det nemmere for computere at arbejde med, men med en afvejning af en vis præcision.
Quantum Computing
Multidisciplinary field comprising aspects of computer science, physics, and mathematics that utilizes quantum mechanics to solve complex problems faster.
Quantum Computing: Revolution af computerteknologi
Forestil dig, at du prøver at løse et enormt kompliceret puslespil. En traditionel computer ville prøve hver enkelt løsning én ad gangen, mens en quantum computer kunne udforske mange løsninger på én gang. Dette gør quantum computing særligt lovende for opgaver som at simulere molekyler for lægemiddelforskning, optimere komplekse systemer som trafiknetværk eller finansielle markeder, og forbedre sikkerhed gennem næsten ubrydelig kryptering.
Quasi-Recurrent Neural Network (QRNN)
A type of neural network that combines some of the properties of conventional RNNs and Convolutional Neural Networks (CNNs). Although some models is based on the Transformer architecture and does not use QRNNs, they are a relevant concept in AI research.
QRNN: Forskellige værktøjer til brug af modellen på datasættet.
Forestil dig en køkkenblender og et håndpisker. Blenderen er super hurtig til at blande ingredienser, men er ikke god til at håndtere rækkefølgen af tilsætning af dem. Håndpiskeren er langsommere, men lader dig bestemme rækkefølgen af blanding. Tænk nu på et værktøj, der blander de bedste funktioner fra begge - hastighed og kontrol over sekvensen. I AI-verdenen er det, hvad en QRNN gør! Det blander styrkerne ved to populære værktøjer (RNN'er og CNN'er) til behandling af information.
Query
In the context of the Transformer architecture on which, a query is a vector used to compute attention weights. In each Transformer block, there is a query, a key, and a value that together form the Scaled Dot-Product Attention mechanism.
Forespørgsel: Dit spørgsmål.
Forestil dig, at du er i et stort bibliotek, og du har et spørgsmål. Du henvender dig til bibliotekaren ("forespørgslen") og spørger: "Hvor kan jeg finde bøger om udforskning af rummet?" Bibliotekaren tjekker derefter bøgernes titler og resuméer ("nøglerne") og henviser dig til de mest relevante bøger ("værdierne"). I modellens hjerne er "forespørgslen" som dit spørgsmål til bibliotekaren, og hjælper modellen med at beslutte, hvilken information der skal fokuseres på næste gang.
R
Random Initialization
The process of initializing the weights of a neural network with small random values at the beginning of training.
Tilfældig initialisering: Tilfældighedslæring.
Forestil dig, at du prøver at finde den bedste opskrift på en kage, men du har ikke noget udgangspunkt. Så du vælger tilfældigt mængder af ingredienser til at begynde med. I AI-modeller ligner dette "tilfældig initialisering." Det er som at starte med en tilfældig kageopskrift og derefter justere den, indtil den er helt rigtig. Ved at starte med tilfældige "ingredienser" (eller vægte), kan modellen så justere dem under træningen for at få de bedste resultater.
Ranking
The task of ordering elements according to their relevance or importance. This could mean ranking the generated responses according to their probability.
Ranking: Rangering af svarene, som modellen laver.
Tænk på en sangkonkurrence på tv. Deltagerne optræder, og dommerne rangerer dem baseret på deres præstationer, fra bedst til værst. I AI-verdenen er "rangering" ligesom disse dommere, men for ord eller svar. Systemet rangerer sine egne svar baseret på, hvor sandsynlige eller passende de er. Ligesom de bedste sangere får topplaceringerne, bliver de bedste svar fra modellen placeret højere!
Recurrent Neural Network (RNN)
A type of neural network specifically designed to process sequential data by storing information about previous inputs in its internal state. RNNs are an important concept in NLP.
RNN: Værktøj, som modellen bruger til forståelse af indholdet i datasættet.
Forestil dig et transportbånd, hvor genstande kommer efter hinanden. Hver vare har en besked, der skal huskes for det næste element. En RNN er som en arbejder ved dette transportbånd, der har en speciel lomme til at gemme minder fra de tidligere varer, der hjælper dem med at træffe beslutninger om den aktuelle genstand. RNN'er er et klassisk værktøj til at forstå sekvenser i AI.
Regularization
Techniques used to prevent overfitting in a machine learning model by limiting the complexity of the model. This can be achieved by methods such as weight removal or dropout.
Regularisering: Sikrer, at alle dele af modellens datasæt har samme værdi.
Tænk på at træne en maskinlæringsmodel som at lære nogen at lave mad ved hjælp af en række forskellige ingredienser. Uden vejledning kan de bruge for meget af et stærkt krydderi, der overdøver retten. Regularisering er som at give dem et sæt retningslinjer for at balancere ingredienserne og sikre, at ingen enkelt smag bliver for dominerende. I AIs verden betyder det, at man sikrer, at modellen ikke bliver for besat af specifikke detaljer fra træningsdataene, hvilket hjælper den med at generalisere bedre til nye situationer.
Reinforcement Learning
An area of machine learning in which an agent learns to perform optimal actions by interacting with its environment.
Reinforcement Learning: Læring af modellen for at blive bedre over tid.
Forestil dig at træne en hund. Når hunden gør noget godt, giver du den en godbid. Hvis det opfører sig forkert, kan du sige "Nej!" Med tiden lærer hunden, hvilke handlinger der får godbidder, og hvilke der ikke gør. Reinforcement Learning er sådan, men for computere. Det handler om at lære en computer at træffe de bedste valg ved at belønne gode beslutninger og ignorere eller straffe dårlige.
ReLU (Rectified Linear Unit)
An activation function used in neural networks. ReLU is one of the most commonly used activation functions in machine learning.
ReLU (Rectified Linear Unit): Regulering af positivt og negativt udfald i modellen.
Forestil dig, at du hopper på en trampolin. Hvis du hopper op, hopper du højere og højere. Men hvis du ikke anstrenger dig, hopper du slet ikke. ReLU er lidt ligesom denne trampolin: enhver positiv værdi hopper højere, mens negative eller nulværdier ikke hopper. I et neuralt netværk hjælper dette modellen med at beslutte, hvilken information der er vigtig, og hvilken der kan ignoreres.
S
Scaling
In the context of the Transformer architecture, scaling is used to control the size of the dot-product values in the attention function. This helps to avoid numerical stability problems.
Skalering: Justering af modellen i forhold til indholdet.
Forestil dig, at du har et forstørrelsesglas, og du bruger det til at se på forskellige genstande. Nogle genstande kan virke for store og andre for små. Hvis du justerer afstanden på forstørrelsesglasset, kan du få tingene til at se helt rigtigt ud. På samme måde er der i AIs hjerne (Transformer-arkitekturen) et trin kaldet 'dot-product', som nogle gange kan give værdier, der er for store eller for små. "Skalering" er som at justere det forstørrelsesglas, og sørge for, at værdierne er på det rigtige niveau, så modellen kan forstå dem uden nogen hikke.
Self-Attention
A key component of the Transformer architecture. Self-Attention allows the model to consider the relationships between different words in a text sequence, regardless of their position in the sequence.
Selvopmærksomhed: Ser tilbage på tidligere ord i svaret for at finde det næste ord.
Forestil dig, at du læser en historie, og du støder på navnet "John." Nu, for fuldt ud at forstå, hvem John er, skal du måske huske detaljer om ham fra tidligere dele af historien. "Selvopmærksomhed"-mekanismen fungerer på samme måde. Det hjælper modellen med at "se tilbage" på andre ord i den tekst, den genererer eller behandler, og lader den huske og overveje alle ord, uanset om de er nær eller fjern. Dette hjælper med at forstå konteksten bedre og skabe mere sammenhængende svar.
Sentence Embedding
A representation of a sentence as a vector in high-dimensional space. They are a relevant concept in NLP.
Sætningsindlejring: Oversætter ord til tal og bruger det i sin sandsynlighedsregning.
Forestil dig, at du prøver at beskrive en hele films plot i kun en kort sætning. Det er en måde at tage noget stort og sammenfatte det til noget meget mindre. "Sætningsindlejring" ligner. Det tager en hel sætning og gør den til en lille liste med tal (kaldet en vektor), der fanger sætningens betydning. Andre modeller arbejder med individuelle ord, kan forståelsen af ideen om at "komprimere" en sætning til en talliste hjælpe med at forstå, hvordan maskiner håndterer sprog.
Sequence-to-Sequence Model (Seq2Seq)
A class of models that aim to transform an input sequence into an output sequence. These models are often used for tasks such as machine translation or text summarization.
Sequence-to-Sequence Model (Seq2Seq): Oversætter mellem to forskellige sprog.
Forestil dig, at du har en magisk boks, hvor du sætter en sætning ind på engelsk og ud kommer den samme sætning på fransk. Denne boks ændrer rækkefølgen af engelske ord til en række franske ord. Det er, hvad en Seq2Seq-model gør! Det er som en speciel magisk boks, der i stedet for at oversætte tager din besked og giver et svar tilbage.
Softmax function
A function often used in machine learning models to convert the outputs of a model into a probability distribution. It is used to calculate the probabilities for the next word in the text sequence.
Softmax-funktion: Metode til at gætte det næste ord i svaret.
Forestil dig, at du har en gruppe venner, og du vil finde ud af, hvor sikker hver enkelt er på at besvare et bestemt spørgsmål. Nogle er mere selvsikre, andre mindre. Softmax-funktionen er som en magisk lommeregner, der tager alles tillidsniveauer, selvom de er vildt forskellige, og klemmer dem ind i en skala fra 0 til 1. Den samlede tillid i gruppen vil altid summere op til 1. Denne funktion hjælper med at beslutte, hvilket ord der er mest sandsynligt, der kommer næste gang, baseret på konfidensniveauerne for hvert ordvalg.
Stochastic Gradient Descent (SGD)
An optimization technique commonly used to train machine learning models. SGD estimates the gradient of the loss function with respect to the model parameters and uses it to change the parameters in the direction that minimizes the loss.
SGD: Læringsmetode med vurdering af ét skridt ad gangen.
Forestil dig, at du prøver at finde det laveste punkt i et kuperet terræn med bind for øjnene. Hvert skridt du tager, mærker du jorden og bestemmer retningen ud fra hældningen under dine fødder. Du bliver ved med at gøre dette, indtil du føler, du er på det laveste punkt. I en verden af maskinlæring kaldes denne proces med at tage skridt til at finde det "laveste punkt" (eller bedste løsning) SGD. Det hjælper modeller med at lære og lave bedre forudsigelser ved at justere dets interne indstillinger (parametre) lidt efter lidt.
String
A sequence of characters. Both the inputs and the outputs of the model are strings.
String: En sætning.
Forestil dig en halskæde med perler, der staver "HEJ". Hver perle er som en karakter, og hele halskæden staver et ord eller en besked. På computersprog kalder vi denne halskæde for en "streng". Når du skriver et spørgsmål, eller det giver et svar, er begge dele som forskellige halskæder eller "strenge" lavet af tegn.
Supervised Learning
A type of machine learning in which a model learns from examples of input-output pairs. Pretraining can be considered a form of supervised learning, as the model learns from pairs of text sequences and their associated continuations.
Supervised Learning: Læringsmetode, som bygger på tidligere erfaring.
Forestil dig, at du lærer en robot at genkende frugter. Du viser det et æble og siger "Dette er et æble". Så viser du den en appelsin og siger "Dette er en appelsin". Ved at gøre dette forsyner du robotten med korrekte svar eller "etiketter". I AI-verdenen kaldes denne måde at undervise på, hvor du giver både spørgsmålet (frugten) og svaret (dets navn), supervised learning.
T
Tensors
A type of data structure used in machine learning and especially in libraries like TensorFlow and PyTorch. It represent input and output data.
Tensorer: Betegnelse for input og output i modellen.
Forestil dig LEGO klodser. En enkelt blok er som et tal. Stable dem i en linje, og du har noget som en liste. Byg en flad firkant, og det er som et bord eller et gitter. Stable disse firkanter, og du får en 3D-struktur. I en verden af maskinlæring kaldes disse strukturer for tensorer. De er multidimensionelle gitter fyldt med tal, som f.eks. overladede regneark, der hjælper modellen med at håndtere og behandle information.
Text Generation
The task of generating text that sounds human-like. This is the main task of in AI models.
Tekstgenerering: Menneskelignende tekst i relation til output.
Forestil dig en robot, der forsøger at skrive en historie eller en besked. Det skal lyde som noget, et menneske ville sige, ikke? Det er tekstgenerering! Det er som at lære en maskine at være forfatter. Modellen er en stjerneelev i denne klasse, der laver sætninger og svar, der føles som om de kommer fra et menneske, selvom de er lavet af en computer.
Time series
A sequence of data points arranged in chronological order. It can be used to generate text that takes into account temporal aspects.
Tidsserier: Betydningen af tid i relation til svar.
Forestil dig at tage et billede af din have hver dag i et år. Med tiden vil du se blomster blomstre, blade falde og sne lægge sig. Hvert billede repræsenterer havens tilstand på en bestemt dag. Nu, hvis du i stedet for billeder noterede temperaturen hver dag, ville du have en "tidsserie" - en liste over temperaturer i den rækkefølge, de opstod. Mens nogle modeller hovedsageligt beskæftiger sig med ord, kan det diskutere eller generere tekst om sådanne sekvenser, hvilket viser forståelse for begivenheder over tid.
Token
A unit of text that is processed by a model. A token can be a single word, a character, or a subword, depending on the type of tokenizer used.
Token: Måleenhed for antal ord, som findes i spørgsmålet til AI modellen.
Forestil dig et puslespil, hvor hver brik er et ord, en del af et ord eller endda bare et enkelt bogstav. Hvert af disse puslespilsbrikker for et "token". LLM modellerne ser på disse tokens for at forstå og generere tekst. Ligesom du har brug for alle de rigtige brikker for at fuldføre et puslespil, bruger disse tokens til at sammensætte meningsfulde svar.
Tokenization
The process of breaking text into tokens that can be processed by a model. It is known as "byte pair encoding".
Tokenization: Metode, der opdeler spørgsmålet i antal ord = token.
Forestil dig, at du har en chokoladebar, og du vil dele den. Du ville bryde det i mindre stykker, ikke? Tokenisering er som at bryde en stor chokoladebar (en sætning eller tekst) i mindre stykker (ord eller dele af ord). Dette gør det lettere at se på hver brik og forstå hele bjælken. Den specielle måde, kaldes "byte-parkodning", som nogle gange deler ord i endnu mindre stykker, hvilket sikrer, at ingen chokolade går til spilde!
Training
The process by which a machine learning model learns from data. This includes pretraining on a large text corpus and fine-tuning on specific tasks.
Træning: Betegnelsen for, hvordan modellen bliver bedre.
Det er som at lære et barn at tale. Til at begynde med lytter barnet til en masse samtaler (dette svarer til modellernes fortræning på en stor mængde tekst). Efterhånden som barnet lærer grundlæggende sprog, vejleder og retter vi dem derefter om specifikke emner eller talemåder (som modellens finjustering af bestemte opgaver). Med tiden bliver både barnet og modellen bedre til at kommunikere med denne træning.
Transfer Learning
An approach in machine learning where a model trained on one task is adapted to work on another task. In a model trained on a general text corpus through pretraining is fine-tuned to work on specific dialog tasks.
Transfer Learning: Betegnelsen for overførsel af viden fra en model til en anden.
Forestil dig, at du lærte at cykle. Nu vil du gerne lære at køre på scooter. I stedet for at starte fra bunden, bruger du de balance- og koordinationsevner, du lærte ved at køre på cyklen, til at hjælpe dig med at lære scooteren hurtigere. I AIs verden lærer den først det grundlæggende fra en stor bog med generel viden (fortræning). Derefter finpudser den sine færdigheder til specifikke samtaler (finjustering), som at lære at køre på den scooter.
Transformer
Transformer models use mechanisms called "Self-Attention" and "Positional Encoding" to take into account the context of words in an input, regardless of their position.
Transformer: Metode til at få modellens svar til at ligne menneskeligt sprog.
Forestil dig en teaterinstruktør, der instruerer skuespillere i, hvordan man opfører en scene. Instruktøren ser ikke bare på hver enkelt skuespillers individuelle rolle, men ser også, hvordan de alle interagerer sammen for at få scenen til at fungere. "Transformeren" er ligesom den instruktør. Det er hjernen, der ser på hvert ord i en sætning og forstår, hvordan det interagerer med hvert andet ord, uanset hvor de er placeret. Dette giver en dyb forståelse af sproget og hjælper det med at generere menneskelignende tekst.
Turing Test
Method of inquiry in artificial intelligence (AI) for determining whether or not a computer is capable of thinking like a human being.
Turing Test: Målestokken for kunstig intelligens
Forestil dig, at du chatter online og stiller spørgsmål eller fører en samtale. Hvis du på noget tidspunkt ikke kan afgøre, om du taler med en person eller en computer, så har maskinen formået at efterligne menneskelig tænkning og adfærd godt nok til at bestå Turing Testen. Denne test er ikke kun en teknisk udfordring, men også en undersøgelse af, hvordan vi definerer og forstår menneskelig intelligens.