Anonim

Overalt emnet Kunstig intelligens (AI) flettes forskellige myter sammen. Mens disse maler skrækkescenarier på væggen, hvorefter maskiner vil tage kontrol over menneskeheden, håber andre på et paradis på jorden, hvor intelligente maskiner gør alt det arbejde, og folk kun gør, hvad de nyder.

Deep Learning versucht die Mechanismen des menschlichen Gehirns nachzuahmen.
Dyb læring forsøger at efterligne mekanismerne i den menneskelige hjerne.
Foto: Yurchanka Siarhei - shutterstock.com

Det tyske forskningscenter for kunstig intelligens (DFKI) i Kaiserslautern.

"AI-systemer mangler opmærksomhed - for eksempel oversætter de nu bedre i realtid end de fleste samtidige tolke, men de har ingen idé om, hvilket sprog de har at gøre med, hvad teksten betyder, og hvilken effekt det har på læseren." Den menneskelige intelligens, der groft er opdelt i områderne opfattelse, tænkning, viden og læring / træning, er langt fra nået med hensyn til kompleksitet og effektivitet i AI-systemer, er forskerens konklusion.

spoods.de

Udtrykkene AI, Machine Learning og Deep Learning blandes ofte sammen og bruges synonymt. Men der er forskelle. Groft sagt er maskinlæring en undergruppe af AI, og dyb læring er en undergruppe af ML. Kunstig intelligens er, når maskiner overtager opgaver, der efterligner menneskelig intelligens, for eksempel ved at planlægge, lære og løse problemer. Men dette gælder også for forståelsen af ​​sprog eller genkendelsen af ​​genstande, billeder eller lyde.

Der sondres groft mellem to sorter af AI: Kunstig generel intelligens (AGI) svarer til et maskinkoncept til menneskelig intelligens - med alle deres sanser og evner. Sådanne systemer omtales ofte som kognitive systemer. Kunstig smal intelligens (ANI) involverer på den anden side kun visse aspekter af menneskelig opfattelse og intelligens, såsom anerkendelse af billeder eller ansigter. ANI er normalt designet til at løse specifikke opgaver. De fleste af de AI-applikationer, der i øjeblikket er i brug i virksomheden, er i ANI-kategorien. I modsætning hertil er AGI-scenarier overvejende stadig inden for science fiction.

Maskinlæring og dyb læring - værktøjerne til AI

Når maskiner kan lære og udføre bestemte opgaver ved hjælp af algoritmer uden eksplicit at være programmeret til dem, kaldes dette maskinlæring. Nøglen til dette er de underliggende modeller. Klassiske statistiske modeller fra business intelligence-æraen har brug for en matematisk ligning og en klar forståelse af de forskellige variabler.

Det tager relativt lang tid og data arbejde at skabe sådanne statiske modeller. Hvis korrelationer genkendes, og ligningen står, kan de give værdifuld indsigt for din egen virksomhed. Men de har en ulempe: hvis databasen ændres, skal den statistiske model også bygges, i det mindste delvis eller endda helt ny.

Study Machine Learning / Deep Learning 2019

udstilling

Hvad der venter os i 2030

Was uns 2030 erwartet - Foto: Dell

Innovative teknologier fører til forstyrrende ændringer. Denne undersøgelse afslører, hvad ledere af verdens førende virksomheder forventer af den digitale fremtid.

Download undersøgelsen

På den anden side kræver modeller for maskinindlæring ikke stive regler. Kort sagt, de observerer input og output og bygger deres egne korrelationer og ligninger. Sådanne modeller kan udvikles relativt hurtigt og uden særlig indsats. Når alt kommer til alt skal der ikke pakkes pålidelige datakorrelationer i modellen - det er, hvad modellen til sidst vil finde ud af for sig selv.

Ulempen her: Resultaterne, der spytter ud af en sådan ML-model lige i begyndelsen, er unøjagtige, undertiden vanskelige at fortolke og dermed ikke nødvendigvis effektive for virksomheden. Til dette kan flere forskellige modeller udvikles og testes parallelt med relativt lille indsats. En anden fordel er, at ML-modeller simpelthen skal trænes, når databasen ændres.

For eksempel lærte vi som studerende, hvordan håndskrevne tal ser ud - på alle mulige måder fra lærere, forældre, andre børn osv. En oval, cirkulær struktur er en 0, en lodret linje med en kortere linje skråt øverst nederst til venstre er en 1 osv. Hvad der er relativt let for vores abstraherbare hjerne kan være uendeligt svært for en maskine.

De utallige variationer i, hvordan numre skrives, gør det næsten umuligt at skrive et dedikeret program til nøjagtigt at identificere håndskrevne numre. Hvis for eksempel nulkredsen ikke er helt lukket, eller sideslaget på 1 svigter næsten vandret, skal reglerne for et softwareprogram overgive sig.

Maskinlæringsmodeller viser forskellige stavemåder for tal og fortæller dem, hvad de skal kigge efter. Vigtige ledetråde til algoritmen kan være antallet af linjer samt mængden og placeringen af ​​krydsningspunkter. Uvigtige oplysninger er for eksempel farven eller størrelsen på numrene.

Hvis du fodrer ML-modellen med de relevante funktioner, du vil være opmærksom på, samt et tilstrækkeligt stort antal eksempler, kan maskinen lære at genkende håndskrevne numre. Der er dog en begrænsning: modellen er kun så god som de indtastede egenskaber, så hvor godt personen har identificeret egenskaberne for det objekt, der skal genkendes.

Sandsynligvis har hver af os allerede hjulpet: Hvis et websted beder os om at markere billeder med trafiklys, butikker eller dyr for at afgøre, om en person eller maskine anmoder om, trænes en algoritme i baggrunden.

Deep Learning - læring uden regler

Deep Learning er en speciel type maskinlæring. Dermed kommer såkaldte neurale netværk ind. Disse giver algoritmerne endnu større frihed. Hvis man stadig skal fortælle ML-algoritmerne, hvordan data er struktureret, og hvad de skal være opmærksomme på, kan man lade DL-algoritmer køre uden regler og forskrifter for alle mulige data - i det mindste i teorien.

Deep-Learning-Modelle arbeiten mit verschiedenen Zwischenschichten, in denen der Input immer weiter abstrahiert wird. So kommen die Modelle auch gut mit neuen Daten klar.
Deep learning-modeller arbejder med forskellige mellemlag, hvor inputene i stigende grad abstraheres. Så modellerne er også gode med nye data.

Dyb indlæringsmodeller lover, at de underliggende algoritmer og neurale netværk kan klare sig uden en forudgående definition af væsentlige egenskaber ved de genstande, der skal genkendes. Modellerne er trænet med generelt tilgængelige data. I begge tilfælde lærer algoritmen, om den er placeret korrekt eller forkert, og på baggrund heraf definerer det sine egne kriterier, som set fra modelens synspunkt er relevante for en korrekt genkendelse. Ulempen ved denne metode: Det tager en masse data og meget tid såvel som en høj computerkapacitet til uddannelse af modeller for dyb læring.

Modeller kan abstrahere det, de har lært

Den grundlæggende idé bag ML og DL er, at modellerne kan lære om data, generalisere, hvad de har lært, og ideelt set anvende dem på andre, tidligere ukendte data. Modeller består af forskellige komponenter: data, algoritmer og såkaldte hyperparametre - overlegne nøgletal, der siger noget om læringsprocessen.

Et eksempel: For at lære at spille klaver kræves noter samt information om bestemte musik- og kompositionsformater - dette er datoerne. Algoritmen angiver, hvordan hænder og fingre skal slå klaverens taster i sammenhæng med noter og andre specifikationer, som f.eks. Hyperparametre er øvelsesintervaller og varighed, placering og tidspunkt for øvelser, klaverart osv. Når man tager alt dette sammen, får man en læringsmodel, der spiller klaver. Hvis den er tilstrækkelig trænet, kan det antages, at den kan spille i episoden indtil videre ikke øvede, ukendte musikstykker.

Selv maskiner lærer anderledes

Ligesom mennesker lærer maskiner også forskelligt. Der er forskellige tilgange til udvikling af ML-modeller:

  • Overvåget : I såkaldt overvåget læring fortæller en 'lærer' algoritmen, hvis det er rigtigt eller forkert. Målet er at forudsige en bestemt udvikling, såsom en abonnents ophør. Eller du kan genkende individuelle objekter, f.eks. En håndskrift. Til dette trænes algoritmen med parametre og data, indtil modellen har nået den ønskede ydelse.

  • Ikke overvåget : I uovervåget træning får algoritmen ingen ledetråde til, om det er rigtigt eller forkert. Det er op til maskinen at uafhængigt etablere sammenhænge og forhold mellem dataene. I sidste ende skal en analytiker dog beslutte, om resultaterne giver mening og hjælpe virksomheden med at komme videre. Uovervåget læring kommer normalt ind, når svarene endnu ikke er kendte (i modsætning til Supervised Learning: kunden afslutter - hvilke parametre har antydet på forhånd?). En typisk applikation er segmenteringen af ​​kundegrupper, som derefter kan adresseres i træk med specifikke reklamemeddelelser og produkter.

Fordelen ved uovervåget læring ligger i det faktum, at modellerne skaber sig næsten automatisk. Manuel indgriben er ikke nødvendig. Derudover giver denne tilgang ofte overraskende ny indsigt i data, der kan åbne nye forretningsmuligheder for virksomheder. Det er imidlertid vanskeligt med denne tilgang at korrekt vurdere, om modellen fungerer korrekt. Her er det vigtigt at holde øje med forskellige effekter.

Undertiden fungerer en ikke-overvåget model godt for en bestemt datakategori - fordi modellen er blevet trænet længe og hårdt - men den kan ikke klare nye data, der kommer senere. Dette kaldes overfitting. En underfitting opstår, når der er for lidt data til rådighed, og modellen spytter unøjagtige klassifikationer. Sådanne egenskaber er undertiden vanskelige at genkende. Det kan være en kostbar opgave at vurdere og teste, hvor godt uovervågede modeller fungerer.

I modsætning hertil er en overvåget model gennemsigtig og sporbar. Dataene er strukturerede, resultatet er klart. Tolkningsindsatsen forbliver lav. Men denne overvågede læring kræver en stor indsats for at forberede de nødvendige data og træne modellen.

Maskinlæring - dette er de grundlæggende:

  • Hvad du har brug for at vide om maskinlæring

  • Del 1: Maskinlæring - det er det, det handler om

  • Del 2: Machine Learning - det er hvad tyske virksomheder har i tankerne

  • Del 3: Maskinlæring - teknologien

Derudover er der andre læringsmetoder. I Semisupervised-metoden får algoritmen nogle oplysninger om dataene og deres struktur, men så skal modellen arbejde sammen i store dele. I "Forstærkningslæring" modtager algoritmen information om, hvorvidt det er rigtigt eller forkert i visse trin. Igen er svaret kendt, men der er for lidt mærkede data, da en 'lærer' kan ledsage algoritmen gennem hele indlæringsprocessen. Denne styrkelsesmetode kommer tættest på menneskelig læring.

I Aktiv læring får algoritmen mulighed for at anmode om de rigtige svar på nogle af inputene. Dog skal selve maskinen overveje, hvilke spørgsmål der lover mest information. Transfer Learning bruges, når du prøver en eksisterende model i et andet anvendelsesområde og data. Dette kan spare tid og kræfter i udviklingen af ​​en passende model. For at vende tilbage til eksemplet med klaverafspilningsmodellen: denne kunne bruges som grundlag for at udvikle en læringsmodel til harmonika. Kendskab til noter som datagrundlag er tilgængelig såvel som færdigheden til, hvordan man bruger fingre på et tastatur. At lære nyt er håndtering af bastasterne og bælgen.

Dyb læring efterligner den menneskelige hjerne

Deep learning indtager en lidt anden tilgang end traditionelle ML-metoder. Grundlaget her er baseret på såkaldte neurale netværk, der er baseret på den menneskelige hjernes funktion - hvorved det skal bemærkes, at de faktiske processer i den menneskelige hjerne er meget mere komplekse end at et neuralt netværk kunne kortlægge eller endda efterligne disse sammenkoblinger og interaktioner. Det grundlæggende princip fungerer imidlertid på lignende måde: I hjernen er neuronerne forbundet via synapser. Afhængig af aktiviteten er disse links stærkere eller svagere. Individuelle neuroner modtager signaler, evaluerer og behandler dem og videregiver et responssignal til andre neuroner.

Selv i et kunstigt neuralt netværk forbindes individuelle aritmetiske enheder (neuroner) sammen for at behandle information så intelligent som muligt - i henhold til teorien. I praksis består dybe læringsarkitekturer af flere lag af neuroner kaldet lag. Der er et inputlag, flere skjulte lag, hvor informationen behandles, og et outputlag. Den egentlige dybe læring finder sted i de skjulte mellemlag. De udgør kernen i modeller for dyb læring.

Ny information dannes mellem de enkelte skjulte lag. Dette er forskellige repræsentationer af de originale inputoplysninger, for eksempel et ansigt på et billede. Dette er også kendt som repræsentationslæring. Disse repræsentationer repræsenterer hver en abstraktion af det forrige indgangssignal Fra en oprindeligt kompleks inputinformation filtreres forskellige grader af forenklinger af indgangen derfor af de forskellige lag. Grundlæggende for at forblive i eksemplet ansigt reduceres billedet gradvist til visse former, linjer, farver og forenkles.

Algoritmen lærer autonomt de funktioner, der betyder noget, og ved hjælp af denne forenklede, generaliserede information kan de også klassificere nye inputdata korrekt. I trænings- og læringsprocessen i en dyb-læringsmodel er det især vigtigt at justere vægten af, hvordan bestemte egenskaber vurderes på en sådan måde, at fejlprocenten falder.

Dyb indlæringsmodeller - jo flere lag, jo mere komplekse

Den grundlæggende struktur i neurale netværk er altid den samme. Brugere kan dog specificere, hvor kompleks en sådan model skal fungere. Dette afhænger af antallet af skjulte lag og antallet af neuroner i disse lag såvel som deres aktiveringsfunktion, dvs. hvordan de er forbundet med neuronerne i det næste lag. Afhængig af deres egenskaber er der forskellige typer neurale netværk, der også er rettet mod særlige formål.

  • Den enkleste form for neurale netværk er feedforward neurale netværk (FNN) . De består af et inputlag, et eller flere skjulte lag og et outputlag. Oplysningerne kører i en retning fra input til output. Der er ingen feedbacks eller cirkler.

  • Konvolutional Neural Networks (CNNs) er især nyttige til analyse af rumligt placerede data, såsom billeder eller video. Her bruges forskellige typer lag. De indviklede lag undersøger visse områder af inputet baseret på et specifikt filter, såsom farve eller lysstyrke. Som et resultat kasserer såkaldte poollag overflødige oplysninger og komprimerer således mængden af ​​information, der skal behandles. Dette reducerer hukommelseskravene og øger behandlingshastigheden.

  • I tilbagevendende neurale netværk (RNN'er) er neuronerne organiseret i lukkede kredse. Dette betyder, at output bliver ført tilbage til de samme neuroner som input. Derfor er denne arkitektur især velegnet til at behandle sekvensoplysninger om tid, såsom tidsserier og sprog.

  • Generative Adversarial Networks (GAN'er) består af to neurale netværk. Den ene er et omvendt CNN, et såkaldt Deconvolutional Neural Network, der bruger indhold til at oprette indhold - for eksempel billeder eller tekst. Denne del kaldes en generator. Antagonisten er en klassisk CNN, som nu skal finde ud af, om det input, der skal undersøges, er reelt eller kunstigt blev oprettet af generatoren. Denne del af GAN kaldes Discriminator. Begge komponenter i GAN optimerer hinanden i en slags konkurrence. Ved hjælp af denne variant af et neuralt netværk kan for eksempel tekster eller billeder oprettes i bestemte stilarter, hvis du tidligere har fodret maskinen med det rette indhold af forfattere og malere.

Die Prinzessin und der Fuchs - Autor: eine Maschine mit AI, nach Vorlagen und Impulsen der Gebrüder Grimm.
Prinsessen og ræven - forfatter: en maskine med AI i henhold til skabeloner og impulser fra Brødrene Grimm.
Foto: Rolig

Faktisk uddannede adskillige forfattere på vegne af Calm-virksomheden, udbyder af en meditations- og læseprogram, en algoritme ved hjælp af ordene og udtryk fra Brødrene Grimm. Resultatet blev forskellige tekstmoduler i stil med eventyrbrødrene, som dog stadig måtte sammensættes af kunstnerkollektivet Botnik til et nyt eventyr. "Prinsessen og ræven" har alt, hvad der følger med et Grimm-eventyr: en prinsesse, som kongen ønsker at gifte sig med en prins, som hun ikke kan lide. Der er også en fattig møllersøn, en magisk hest og selvfølgelig ræven. Og hvis de ikke døde, lever de stadig i dag.