Mire képes ma a mesterséges intelligencia
Mire képes ma a mesterséges intelligencia
Anonim

Spoiler figyelmeztetés: Még sok idő van a gépek felkelése előtt.

Mire képes ma a mesterséges intelligencia
Mire képes ma a mesterséges intelligencia

Amikor Elon Musk bemutatja a humanoid robotot, a Tesla Botot, úgy tűnik, egy új tudományos forradalom közeleg. Még egy kicsit – és a mesterséges intelligencia (AI) felülmúlja az embert, és a gépek váltanak majd fel minket a munkában. Gary Marcus és Ernest Davis professzorokat, mindketten elismert mesterséges intelligencia-szakértőket azonban arra kérik, hogy ne siessék el az ilyen következtetéseket.

Az Artificial Intelligence Rebootban a kutatók elmagyarázzák, hogy a modern technológia miért messze nem ideális. Az "Alpina PRO" kiadó engedélyével a Lifehacker egy részletet közöl az első fejezetből.

Ezen a ponton óriási szakadék tátong – egy igazi szakadék – ambícióink és a mesterséges intelligencia valósága között. Ez a szakadék három konkrét probléma megoldatlansága miatt keletkezett, amelyek mindegyikével őszintén kell foglalkozni.

Ezek közül az első az, amit hiszékenységnek nevezünk, ami azon alapul, hogy mi, emberek nem igazán tanultunk meg különbséget tenni az emberek és a gépek között, és ezzel könnyen becsaphatunk bennünket. Az intelligenciát a számítógépeknek tulajdonítjuk, mert mi magunk is olyan emberek között fejlődtünk és éltünk, akik tevékenységüket nagyrészt elvont elvekre alapozzák, mint például elképzelések, hiedelmek és vágyak. A gépek viselkedése gyakran felületesen hasonlít az ember viselkedésére, ezért gyorsan hozzárendeljük a gépekhez azonos típusú alapmechanizmusokat, még akkor is, ha a gépek nem rendelkeznek ilyenekkel.

Nem tehetünk mást, mint a gépeket kognitív értelemben („A számítógépem azt hiszi, hogy töröltem a fájlomat”), bármilyen egyszerű szabályokat is betartanak a gépek. De azok a következtetések, amelyek igazolják magukat, ha emberekre alkalmazzák, teljesen tévesek lehetnek, ha mesterséges intelligencia programokra alkalmazzák. A szociálpszichológia egyik alaptétele előtt ezt nevezzük alapvető érvényességi hibának.

Ennek a hibának az egyik legkorábbi esete az 1960-as évek közepén történt, amikor egy Eliza nevű chatbot meggyőzött néhány embert arról, hogy valóban érti, amit mondanak neki. Valójában Eliza csak felvette a kulcsszavakat, megismételte az utolsó dolgot, amit a személy mondott neki, és egy zsákutcában olyan szokásos társalgási trükkökhöz folyamodott, mint például: „Mesélj a gyerekkorodról”. Ha megemlíted az édesanyádat, a családodról kérdezne, bár fogalma sem volt arról, hogy valójában mi is a család, vagy miért fontos az embereknek. Ez csak trükkök halmaza volt, nem az igazi intelligencia demonstrációja.

Annak ellenére, hogy Eliza egyáltalán nem értette az embereket, sok felhasználót megtévesztettek a vele folytatott párbeszédek. Néhányan órákat töltöttek azzal, hogy kifejezéseket gépeltek a billentyűzeten, így beszélgettek Elizával, de félreértelmezték a chatbot trükkjeit, összetévesztve a papagáj beszédét hasznos, őszinte tanáccsal vagy együttérzéssel.

Joseph Weisenbaum Eliza alkotója.

Azok az emberek, akik nagyon jól tudták, hogy egy géppel beszélnek, hamar elfelejtették ezt a tényt, ahogy a színház szerelmesei is egy időre félrevetik hitetlenségüket, és elfelejtik, hogy a szemtanúi tettnek nincs joga valósnak nevezni.

Eliza beszélgetőtársai gyakran kértek engedélyt egy privát beszélgetésre a rendszerrel, és a beszélgetés után minden magyarázatom ellenére ragaszkodtak ahhoz, hogy a gép valóban megértse őket.

Más esetekben a hitelesség értékelésének hibája végzetes lehet a szó szó szerinti értelmében. 2016-ban egy automata Tesla autó egyik tulajdonosa annyira bízott az autopilot üzemmód látszólagos biztonságában, hogy (a történetek szerint) teljesen belemerült a Harry Potter-filmek nézébe, és az autót magára hagyta.

Minden jól ment – egészen addig, amíg egy ponton rosszul lett. A több száz vagy akár több ezer mérföldet megtett baleset nélkül az autó (a szó minden értelmében) váratlan akadálynak ütközött: egy fehér teherautó keresztezte az autópályát, a Tesla pedig egyenesen az utánfutó alá rohant, és az autó tulajdonosa a helyszínen életét vesztette.. (Úgy tűnt, az autó többször figyelmeztette a sofőrt, hogy vegye át az irányítást, de a sofőr túl lazának tűnt ahhoz, hogy gyorsan reagáljon.)

Ennek a történetnek a morálja egyértelmű: az a tény, hogy egy eszköz egy-két pillanatig (sőt hat hónapig) „okosnak” tűnhet, egyáltalán nem jelenti azt, hogy valóban így van, vagy hogy képes megbirkózni minden olyan körülménnyel, az ember megfelelően reagálna.

A második probléma, amit a gyors haladás illúziójának nevezünk: a mesterséges intelligencia fejlődését, amely a könnyű problémák megoldásához kapcsolódik, összetéveszti az igazán nehéz problémák megoldásával kapcsolatos haladással. Ez történt például az IBM Watson rendszerrel: annak előrehaladása a Jeopardy! nagyon ígéretesnek tűnt, de valójában a rendszer sokkal távolabbinak bizonyult az emberi nyelv megértésétől, mint azt a fejlesztők várták.

Lehetséges, hogy a DeepMind AlphaGo programja ugyanezt az utat fogja követni. A go játék a sakkhoz hasonlóan egy idealizált információs játék, ahol mindkét játékos bármikor láthatja a teljes táblát, és nyers erővel kiszámolhatja a lépések következményeit.

A legtöbb esetben a való életben senki sem tud semmit teljes bizonyossággal; adataink gyakran hiányosak vagy torzak.

Még a legegyszerűbb esetekben is sok a bizonytalanság. Amikor eldöntjük, hogy gyalog megyünk orvoshoz vagy metróval megyünk (mivel felhős a nap), nem tudjuk pontosan, mennyi ideig kell várni a metrószerelvényre, elakad-e a vonat az úton, úgy zsúfolódunk be a hintóba, mint a hering a hordóban, vagy elázunk kint az esőben, nem merünk metrózni, és hogyan reagál az orvos a késésünkre.

Mindig a rendelkezésünkre álló információkkal dolgozunk. A Go-t önmagával milliószor eljátszva a DeepMind AlphaGo rendszer soha nem foglalkozott a bizonytalansággal, egyszerűen nem tudja, mi az információhiány vagy annak hiányossága és következetlensége, nem beszélve az emberi interakció bonyolultságáról.

Van egy másik paraméter, ami miatt az elmejátékok nagyon eltérnek a valós világtól, és ez megint az adatokhoz kapcsolódik. Még az összetett játékok is (ha kellően szigorúak a szabályok) szinte tökéletesen modellezhetők, így az őket játszó mesterséges intelligencia rendszerek könnyedén összegyűjthetik a képzéshez szükséges hatalmas mennyiségű adatot. Így a Go esetében egy gép szimulálhat egy játékot az emberekkel úgy, hogy egyszerűen önmaga ellen játszik; még ha a rendszernek terabájtnyi adatra van szüksége, akkor is maga hozza létre.

A programozók így teljesen tiszta szimulációs adatokhoz juthatnak csekély vagy költség nélkül. Ellenkezőleg, a való világban nem léteznek tökéletesen tiszta adatok, lehetetlen szimulálni (mivel a játékszabályok folyamatosan változnak), és annál nehezebb próbaképpen sok gigabájt releváns adatot összegyűjteni. és hiba.

Valójában csak néhány kísérletünk van a különböző stratégiák tesztelésére.

Nem áll módunkban például 10 millió alkalommal megismételni az orvosi látogatást, minden vizit előtt fokozatosan módosítva a döntések paramétereit, hogy drámai módon javítsuk viselkedésünket a közlekedési választás terén.

Ha a programozók egy robotot akarnak kiképezni, hogy segítsen az időseken (mondjuk, hogy segítsen lefektetni a betegeket), minden adat valódi pénzt és valós emberi időt ér; nincs mód az összes szükséges adat összegyűjtésére szimulációs játékok segítségével. Még a törésteszt-bábu sem helyettesítheti a valódi embereket.

Adatokat kell gyűjteni valódi idős emberekről, akiknek eltérő a szenilis mozgása, különböző típusú ágyakról, különböző típusú pizsamákról, különböző típusú házakról, és itt nem lehet hibázni, mert az ember leejtése akár több távolságra is. centiméterre az ágytól katasztrófa lenne. Ebben az esetben a tét egy bizonyos előrelépés (eddig a legelemibb) ezen a területen, amelyet a szűk körű mesterséges intelligencia módszereivel sikerült elérni. Olyan számítógépes rendszereket fejlesztettek ki, amelyek szinte a legjobb emberi játékosok szintjén játszanak a Dota 2 és a Starcraft 2 videojátékokban, ahol egy adott időpontban a játék világának csak egy részét mutatják meg a résztvevőknek, így minden játékos szembesül az információhiány problémája – ezt Clausewitz könnyű kezével „az ismeretlen ködének” nevezik. A kifejlesztett rendszerek azonban továbbra is nagyon szűk fókuszúak és működésük instabil. Például a Starcraft 2-ben játszó AlphaStar program csak egy meghatározott fajt tanult meg a karakterek széles skálájától, és ezeknek a fejlesztéseknek szinte egyike sem játszható úgy, mint bármely más faj. És persze nincs okunk azt hinni, hogy az ezekben a programokban alkalmazott módszerek alkalmasak a jóval bonyolultabb valós helyzetekben is sikeres általánosítások készítésére. valódi életeket. Ahogy az IBM nem egyszer, hanem már kétszer is felfedezte (először a sakkban, majd a Veszélyben!), a zárt világból származó problémák sikere egyáltalán nem garantálja a sikert egy nyitott világban.

A leírt szakadék harmadik köre a megbízhatóság túlbecslése. Újra és újra azt látjuk, hogy amint az emberek a mesterséges intelligencia segítségével megoldást találnak valamilyen problémára, ami egy ideig hibamentesen tud működni, automatikusan azt feltételezik, hogy revízióval (és kicsit nagyobb adatmennyiséggel) minden megbízhatóan fog működni.idő. De ez nem feltétlenül van így.

Ismét sofőr nélküli autókat veszünk. Viszonylag könnyű demót készíteni egy autonóm járműről, amely megfelelően halad a jól megjelölt sávon egy nyugodt úton; az emberek azonban több mint egy évszázada képesek erre. Ezeket a rendszereket azonban sokkal nehezebb működésre bírni nehéz vagy váratlan körülmények között.

Amint azt Missy Cummings, a Duke Egyetem Humán- és Autonómia Laboratóriumának igazgatója (és az amerikai haditengerészet egykori vadászpilótája) egy e-mailben elmondta, a kérdés nem az, hogy egy vezető nélküli autó hány mérföldet tud megtenni baleset nélkül. amelyekhez ezek az autók képesek alkalmazkodni a változó helyzetekhez. Missy Cummings szerint e-mailben a szerzőknek 2018. szeptember 22-én., a modern félautonóm járművek "általában csak nagyon szűk körülmények között működnek, amelyek semmit sem mondanak arról, hogyan működhetnek az ideálisnál gyengébb körülmények között."

Az, hogy Phoenixben több millió tesztmérföldön teljesen megbízhatónak néz ki, nem jelenti azt, hogy jó teljesítményt nyújtunk a bombayi monszun idején.

Ez az alapvető különbség aközött, hogy az autonóm járművek hogyan viselkednek ideális körülmények között (például napsütéses napokon a külvárosi többsávos utakon), és az, hogy extrém körülmények között mit tehetnek, könnyen egy egész iparág sikerének és kudarcának a dolga lehet.

Mivel kevés hangsúlyt kap az extrém körülmények között végzett autonóm vezetés, és a jelenlegi módszertan nem fejlődött abba az irányba, hogy biztosítsa az autopilot megfelelő működését olyan körülmények között, amelyeket most kezdenek valódinak tekinteni, hamarosan kiderülhet, hogy dollármilliárdok olyan önvezető autók építési módszereire költöttek, amelyek egyszerűen nem nyújtanak emberszerű vezetési megbízhatóságot. Lehetséges, hogy a szükséges technikai önbizalom eléréséhez a jelenlegitől alapvetően eltérő megközelítésekre van szükség.

Az autók pedig csak egy példa a sok hasonló közül. A mesterséges intelligencia modern kutatása során annak megbízhatóságát globálisan alábecsülték. Ennek részben az az oka, hogy az ezen a területen zajló jelenlegi fejlesztések többsége olyan problémákkal jár, amelyek rendkívül hibatűrőek, mint például a reklámozás vagy az új termékek népszerűsítése.

Valóban, ha ötféle terméket ajánlunk Önnek, és közülük csak hármat szeret, akkor nem történik semmi baj. De a jövő számos kritikus mesterségesintelligencia-alkalmazásában, beleértve a vezető nélküli autókat, az idősgondozást és az egészségügyi tervezést, az emberhez hasonló megbízhatóság kritikus fontosságú lesz.

Senki sem vesz olyan otthoni robotot, amely ötből csak négyszer tudja biztonságosan ágyba vinni idős nagyapját.

Még azokban a feladatokban is, ahol a modern mesterséges intelligencia elméletileg a lehető legjobb fényben kellene megjelennie, rendszeresen előfordulnak súlyos, néha nagyon viccesnek tűnő hibák. Tipikus példa: a számítógépek elvileg már elég jól megtanulták, hogyan ismerjék fel, mi van (vagy történik) ezen vagy azon a képen.

Néha ezek az algoritmusok remekül működnek, de gyakran teljesen hihetetlen hibákat produkálnak. Ha megjelenít egy képet egy automata rendszernek, amely feliratokat generál a hétköznapi jelenetek fényképeihez, gyakran olyan választ kap, amely rendkívül hasonló ahhoz, amit egy ember írna; Például az alábbi jelenethez, ahol egy csoport ember frizbizik, a Google nagy nyilvánosságot kapott feliratgeneráló rendszere pontosan a megfelelő nevet adja.

1.1. ábra. Frizbiző fiatalok csoportja (valószínű képaláírás, mesterséges intelligencia által automatikusan generált)
1.1. ábra. Frizbiző fiatalok csoportja (valószínű képaláírás, mesterséges intelligencia által automatikusan generált)

De öt perccel később ugyanabból a rendszerből könnyen kaphat egy teljesen abszurd választ, mint például ezzel az útjelző táblával, amelyre valaki matricákat ragasztott: a rendszer készítői nem magyarázták meg, miért történt ez a hiba., de az ilyen esetek nem ritkák. Feltételezhetjük, hogy a rendszer ebben a konkrét esetben a fényképet (talán szín és textúra tekintetében) a többi képhez hasonlónak minősítette (amelyekből tanult), amelyek „sok étellel és itallal teli hűtőszekrény”-ként jelölték. Természetesen a számítógép nem értette (amit az ember könnyen megérthet), hogy egy ilyen felirat csak egy nagy, téglalap alakú fémdoboz esetében lenne megfelelő, amelyben különféle (és még akkor sem minden) tárgy található. ez a jelenet "egy hűtőszekrény sok étellel és itallal".

Rizs. 1.2. Rengeteg étellel és itallal megtöltött hűtőszekrény (teljesen valószínűtlen címsor, ugyanazzal a rendszerrel készült, mint fent)
Rizs. 1.2. Rengeteg étellel és itallal megtöltött hűtőszekrény (teljesen valószínűtlen címsor, ugyanazzal a rendszerrel készült, mint fent)

Hasonlóképpen, a vezető nélküli autók gyakran helyesen azonosítják, amit „látnak”, de néha úgy tűnik, hogy figyelmen kívül hagyják a nyilvánvalót, mint például a Tesla esetében, amely rendszeresen ütközött parkoló tűzoltóautókba vagy mentőautókba robotpilóta mellett. Az ilyen holtfoltok még veszélyesebbek lehetnek, ha olyan rendszerekben helyezkednek el, amelyek az elektromos hálózatokat vezérlik, vagy a közegészségügy felügyeletéért felelősek.

Az ambíciók és a mesterséges intelligencia valósága közötti szakadék áthidalásához három dologra van szükségünk: tisztán kell ismernünk a játékban forgó értékeket, tisztában kell lenni azzal, hogy a modern AI-rendszerek miért nem látják el elég megbízhatóan funkcióikat, és végül egy új fejlesztési stratégia gépi gondolkodás.

Mivel a mesterséges intelligencia tétje nagyon nagy a munkahelyek, a biztonság és a társadalom szerkezete szempontjából, sürgősen szükségünk van mindannyiunknak - mesterséges intelligencia szakembereknek, rokon szakmáknak, hétköznapi polgároknak és politikusoknak -, hogy megértsük a dolgok valódi helyzetét. ezen a területen annak érdekében, hogy megtanulják kritikusan értékelni a mai mesterséges intelligencia fejlettségi szintjét és jellegét.

Ahogyan a hírek és statisztikák iránt érdeklődő polgárok számára fontos, hogy megértsék, milyen könnyű szavakkal és számokkal félrevezetni az embereket, úgy itt van egy egyre fontosabb megértés szempontja, hogy rájöjjünk, hol van a mesterséges intelligencia. csak reklám, de hol az igazi; mire képes most, és amit nem tud, és talán nem is fog megtanulni.

A legfontosabb dolog annak felismerése, hogy a mesterséges intelligencia nem varázslat, hanem csupán technikák és algoritmusok összessége, amelyek mindegyikének megvannak a maga erősségei és gyengeségei, egyes feladatokra alkalmasak, másokra nem. Az egyik fő oka annak, hogy megírjuk ezt a könyvet, hogy a mesterséges intelligenciáról olvasottak nagy része abszolút fantáziának tűnik, amely a mesterséges intelligencia szinte varázslatos erejébe vetett alaptalan bizalomból nő ki.

Eközben ennek a fikciónak semmi köze a modern technológiai lehetőségekhez. Sajnos a nagyközönség körében az MI-ről szóló vitát erősen befolyásolták és befolyásolják a spekulációk és a túlzások: a legtöbb embernek fogalma sincs, milyen nehéz univerzális mesterséges intelligenciát létrehozni.

Tisztázzuk a további vitát. Bár az AI-val kapcsolatos realitások tisztázása komoly kritikát igényel majd tőlünk, mi magunk semmiképpen sem vagyunk a mesterséges intelligencia ellenfelei, nagyon szeretjük a technológiai fejlődésnek ezt az oldalát. Életünk jelentős részét professzionálisként éltük le ezen a területen, és szeretnénk, ha ez a lehető leggyorsabban fejlődne.

Hubert Dreyfus amerikai filozófus egykor könyvet írt arról, hogy szerinte milyen magasságokat nem érhet el a mesterséges intelligencia. Ez a könyv nem erről szól. Részben arra összpontosít, hogy a mesterséges intelligencia jelenleg mire nem képes, és miért fontos ezt megérteni, de egy jelentős része arról szól, hogy mit lehetne tenni a számítógépes gondolkodás fejlesztése és az olyan területekre való kiterjesztése érdekében, ahol most először nehézségekbe ütközik.

Nem akarjuk, hogy a mesterséges intelligencia eltűnjön; azt akarjuk, hogy javuljon, ráadásul gyökeresen, hogy valóban számíthassunk rá, és segítségével megoldhassuk az emberiség számos problémáját. Sok kritikát érünk a mesterséges intelligencia jelenlegi állapotával kapcsolatban, de a mi kritikánk a tudomány iránti szeretet megnyilvánulása, nem pedig arra való felhívás, hogy mindent feladjunk és feladjunk.

Röviden: hiszünk abban, hogy a mesterséges intelligencia valóban komolyan átalakíthatja világunkat; de azt is hisszük, hogy az AI-val kapcsolatos számos alapfeltevésnek meg kell változnia, mielőtt valódi haladásról beszélhetünk. A mesterséges intelligencia javasolt „visszaállítása” egyáltalán nem ok arra, hogy véget vessünk a kutatásnak (bár lehet, hogy egyesek pontosan ebben a szellemben értik könyvünket), hanem inkább egy diagnózis: hol ragadtunk most, és hogyan jutunk ki belőle. a mai helyzet.

Hiszünk abban, hogy az előrelépés legjobb módja az lehet, ha befelé nézünk, szembenézve saját elménk szerkezetével.

Az igazán intelligens gépeknek nem kell az emberek pontos másolatainak lenniük, de aki őszintén nézi a mesterséges intelligenciát, az látni fogja, hogy van még mit tanulni az emberektől, különösen a kisgyermekektől, akik sok tekintetben messze felülmúlják a gépeket. képességüket az új fogalmak befogadására és megértésére.

Az orvostudósok gyakran „emberfeletti” (ilyen vagy olyan módon) rendszerként jellemzik a számítógépeket, de az emberi agy még mindig legalább öt szempontból messze felülmúlja szilícium társaiét: értjük a nyelvet, megértjük a világot, rugalmasan tudunk működni. alkalmazkodva az új körülményekhez, gyorsan megtanulhatunk új dolgokat (akár nagy mennyiségű adat nélkül is), és érvelhetünk a hiányos, sőt egymásnak ellentmondó információkkal szemben. Mindezeken a frontokon a modern mesterséges intelligencia rendszerek reménytelenül le vannak maradva az emberek mögött.

Mesterséges intelligencia újraindítás
Mesterséges intelligencia újraindítás

Mesterséges intelligencia: Az újraindítás érdekelni fogja azokat, akik szeretnék megérteni a modern technológiákat, és megérteni, hogyan és mikor teheti jobbá az életünket a mesterséges intelligencia új generációja.

Ajánlott: