AI til dinosaurer

Alt hvad du har brug for at vide om AI - på under 8 minutter.

At vide lidt om alt er ofte bedre end at have en ekspertkompetence. Dette gælder især for mennesker, der deltager i debatten på nye markeder. Især teknisk.

De fleste mennesker tror, ​​de ved lidt om AI. Men feltet er så nyt og vokser så hurtigt, at de nuværende eksperter hver dag bryder nyt grund. Der er så meget videnskab at afsløre, at teknologer og politikere fra andre områder hurtigt kan bidrage inden for AI-området.

Det er her denne artikel kommer ind. Mit mål var at skabe en kort henvisning, der hurtigt bringer teknisk sindede mennesker hurtigere med AI-udtryk, sprog og teknikker. Forhåbentlig kan denne tekst forstås af de fleste ikke-udøvere, mens den tjener som en henvisning til alle.

Introduktion

Kunstig intelligens (AI), dyb læring og neurale netværk er udtryk, der bruges til at beskrive kraftige maskinlæringsbaserede teknikker, der kan løse mange problemer i den virkelige verden.

Mens deduktiv ræsonnement, inferens og beslutningstagning, der kan sammenlignes med den menneskelige hjerne, er en lille vej væk, har der været mange nylige fremskridt inden for AI-teknikker og tilhørende algoritmer. Især med den stigende tilgængelighed af store datasæt, som AI kan lære fra.

Området AI trækker på mange felter, herunder matematik, statistik, sandsynlighedsteori, fysik, signalbehandling, maskinindlæring, datalogi, psykologi, lingvistik og neurovidenskab. Spørgsmål omkring AI's sociale ansvar og etik trækker paralleller med mange filosofiske grene.

Motivationen for at fremme AI-teknikker yderligere er, at de løsninger, der kræves for at løse problemer med mange variabler, er utroligt komplicerede, vanskelige at forstå og ikke lette at sammensætte manuelt.

I stigende grad stoler virksomheder, forskere og enkeltpersoner på maskinlæring for at løse problemer uden at kræve omfattende programmeringsinstruktioner. Denne black box-tilgang til problemløsning er kritisk. Menneskelige programmerere finder det mere og mere kompliceret og tidskrævende at skrive algoritmer, der kræves for at modellere og løse datatunge problemer. Selv når vi konstruerer en nyttig rutine til behandling af store datasæt, har den en tendens til at være ekstremt kompleks, vanskelig at vedligeholde og umulig at teste tilstrækkeligt.

Moderne maskinlæring og AI-algoritmer sammen med korrekt overvejede og forberedte træningsdata er i stand til at udføre programmeringen for os.

Oversigt

Intelligens: evnen til at opfatte information og bevare den som viden, der skal anvendes til adaptiv adfærd i et miljø eller en kontekst.

Denne Wikipedia-definition af intelligens kan finde anvendelse på både organiske hjerner og maskiner. Intelligens indebærer ikke bevidsthed, en almindelig misforståelse spredt af science fiction-forfattere.

Søg efter AI-eksempler på internettet, så ser du henvisninger til IBM's Watson. En maskinlæringsalgoritme, der blev gjort berømt ved at vinde tv-quizzen Show Jeopardy i 2011. Den er siden blevet genbrugt og brugt som en skabelon til en lang række kommercielle applikationer. Apple, Amazon og Google arbejder hårdt for at få et lignende system i vores hjem og lommer.

Naturlig sprogbehandling og talegenkendelse var de første kommercielle anvendelser af maskinlæring. Følges nøje af andre automatiserede genkendelsesopgaver (mønster, tekst, lyd, billede, video, ansigtsbehandling, ...). Applikationsområdet eksploderer og inkluderer autonome køretøjer, medicinske diagnoser, spil, søgemaskiner, spamfiltrering, kriminalitetsbekæmpelse, markedsføring, robotik, fjernmåling, computersyn, transport, musikgenkendelse, klassificering ...

AI er blevet så indlejret i teknologien, som vi bruger, det ses nu ikke af mange som 'AI', men bare en udvidelse af computing. Spørg nogen på gaden, om de har AI på sin telefon, og de vil sandsynligvis sige nej. Men AI-algoritmer er integreret overalt fra forudsigelig tekst til autofokussystemet i kameraet. Den generelle opfattelse er, at AI endnu ikke er ankommet. Men det er her nu og har været i nogen tid.

AI er en ret generaliseret betegnelse. Fokus for mest forskning er det lidt smalere felt af kunstige neurale netværk og dyb læring.

Sådan fungerer din hjerne

Den menneskelige hjerne er en udsøgt kulstofcomputer, der estimeres til at udføre en milliard milliard beregninger pr. Sekund (1000 petaflops), mens den bruger omkring 20 watt strøm. Den kinesiske supercomputer, Tianhe-2 (som tidspunktet for at skrive den hurtigste i verden) administrerer kun 33.860 billioner beregninger pr. Sekund (33,86 petaflops) og bruger 17600000 watt (17,6 megawatt). Vi har en måde at gå, før vores silicium-kreationer indhenter evolutions-kulstofprodukter.

Den nøjagtige mekanisme, som hjernen bruger til at udføre sin tænkning, er op til debat og videre undersøgelse (jeg kan godt lide teorien om, at hjernen udnytter kvanteeffekter, men det er en anden artikel). Imidlertid modelleres de indre arbejder ofte omkring begrebet neuroner og deres netværk. Hjernen antages at indeholde omkring 100 milliarder neuroner.

Neuroner interagerer og kommunikerer langs veje, hvorved meddelelser kan videregives. Signalerne fra individuelle neuroner vægtes og kombineres, før andre neuroner aktiveres. Denne proces med meddelelser, der sendes rundt, kombination og aktivering af andre neuroner gentages på tværs af lag. Over 100 milliarder neuroner i den menneskelige hjerne er summeringen af ​​denne vægtede kombination af signaler kompleks. Og det er en betydelig underdrivelse.

Men det er ikke så enkelt. Hver neuron anvender en funktion eller transformation til dets vægtede input før test, om en aktiveringstærskel er nået. Denne kombination af faktorer kan være lineær eller ikke-lineær.

De indledende indgangssignaler stammer fra forskellige kilder ... vores sanser, intern overvågning af kropsfunktioner (iltniveauer i blodet, maveindhold ...). En enkelt neuron modtager muligvis hundretusinder af indgangssignaler, inden de beslutter, hvordan de skal reagere.

Tænkning eller behandling og de resulterende instruktioner, der er givet til vores muskler, er sammenlægningerne af indgangssignaler og feedback-løkker over mange lag og cyklusser i det neurale netværk. Men hjernens neurale netværk ændrer og opdaterer også, inklusive ændringer i mængden af ​​vægtning, der anvendes mellem neuroner. Dette er forårsaget af læring og erfaring.

Denne model af den menneskelige hjerne er blevet brugt som en skabelon til at hjælpe med at gentage hjernens evner inde i en computersimulering… et kunstigt neuralt netværk.

Kunstige neurale netværk (ANN'er)

Kunstige neurale netværk er matematiske modeller inspireret af og modelleret på biologiske neurale netværk. ANN'er er i stand til at modellere og behandle ikke-lineære forhold mellem input og output. Adaptive vægte mellem de kunstige neuroner er afstemt af en indlæringsalgoritme, der læser observerede data med det mål at forbedre output.

Optimeringsteknikker bruges til at gøre ANN-løsningen så tæt på den optimale løsning som muligt. Hvis optimeringen er vellykket, er ANN i stand til at løse det særlige problem med høj ydeevne.

En ANN er modelleret ved hjælp af lag af neuroner. Strukturen af ​​disse lag er kendt som modellens arkitektur. Neuroner er individuelle beregningsenheder, der er i stand til at modtage input og anvende en matematisk funktion til at bestemme, om meddelelser sendes sammen.

I en simpel trelags model er det første lag inputlaget, efterfulgt af et skjult lag og et outputlag. Hvert lag kan indeholde en eller flere neuroner.

Efterhånden som modeller bliver mere og mere komplekse, med flere lag og flere neuroner, øges deres problemløsningsmuligheder. Hvis modellen imidlertid er for stor til det givne problem, kan modellen imidlertid ikke optimeres effektivt. Dette er kendt som overfitting.

Den grundlæggende modelarkitektur og tuning er de vigtigste elementer i ANN-teknikker sammen med indlæringsalgoritmerne til at læse i dataene. Alle komponenter har modelens ydelse.

Modeller er ofte karakteriseret ved en aktiveringsfunktion. Dette bruges til at konvertere en neurons vægtede input til dens outputaktivering. Der er et udvalg af transformationer, der kan bruges som aktiveringsfunktion.

ANN'er kan være ekstremt kraftfulde. Selvom matematikken i nogle få neuroner er enkel, skalerer hele netværket op for at blive kompleks. På grund af dette betragtes ANN'er som 'black box' algoritmer. Valg af ANN som et værktøj til at løse et problem skal udføres med omhu, da det ikke er muligt at fjerne systemets beslutningsproces senere.

Foto af Patrick Tomasso på Unsplash

Deep Learning

Deep learning er et udtryk, der bruges til at beskrive neurale netværk og relaterede algoritmer, der forbruger rå data. Dataene behandles gennem lagene i modellen for at beregne en måloutput.

Uovervåget læring er hvor dyb læringsteknikker udmærker sig. En korrekt konfigureret ANN er i stand til automatisk at identificere funktioner i inputdataene, der er vigtige for at opnå den ønskede output. Traditionelt falder byrden ved at fornemme inputdataene normalt for programmereren, der bygger systemet. Imidlertid kan modellen i dyb læring identificere, hvordan dataene skal tolkes for at opnå meningsfulde resultater. Når et optimeret system er blevet trænet, er beregnings-, hukommelses- og effektbehovene i modellen meget reduceret.

Kort sagt, funktionelæringsalgoritmer giver en maskine mulighed for at lære til en bestemt opgave ved hjælp af velegnede data… algoritmerne lærer at lære.

Dyb læring er blevet anvendt til en lang række opgaver og betragtes som en af ​​de innovative AI-teknikker. Der er godt designede algoritmer, der er egnede til overvågede, ikke-overvågede og semi-overvågede læringsproblemer.

Shadow learning er et udtryk, der bruges til at beskrive en enklere form for dyb læring, hvor valg af data kræver forhåndsbehandling og mere dybdegående viden fra programmereren. De resulterende modeller kan være mere gennemsigtige og højere ydeevne på bekostning af øget tid på designstadiet.

Resumé

AI er et kraftfuldt databehandlingsfelt og kan give komplekse resultater hurtigere end traditionel algoritmeudvikling af programmerere. ANN'er og dyb læringsteknikker kan løse et mangfoldigt sæt vanskelige problemer. Ulempen er, at de optimerede modeller, der er oprettet, er black-box og umulige at fjerne dem af deres menneskelige skabere. Dette kan føre til etiske problemer, som datas gennemsigtighed er vigtig.