Co je slabá AI
Slabá AI nebo úzká AI je strojová inteligence, která je omezena na konkrétní nebo úzkou oblast. Slabá umělá inteligence (AI) simuluje lidské poznání a prospívá lidstvu automatizací časově náročných úkolů a analýzou dat způsobem, který lidé někdy nemohou.
SNÍŽENÍ Slabé AI
Slabá umělá inteligence postrádá lidské vědomí, ačkoli to může být schopno ji simulovat. Klasickým příkladem slabé AI je čínský pokojový experiment Johna Searleho. Tento experiment říká, že osoba mimo místnost může mít možnost mít v čínštině konverzaci s osobou uvnitř místnosti, která dostane pokyny, jak reagovat na konverzace v čínštině. Zdálo se, že osoba uvnitř místnosti mluví čínsky, ale ve skutečnosti nemohli mluvit ani rozumět ani slovu, aniž by dostávali pokyny, které dostávají. Je to proto, že osoba je dobrá v dodržování pokynů, nikoli v mluvení čínsky. Mohlo by se zdát, že má silnou AI - strojovou inteligenci ekvivalentní lidské inteligenci - ale ve skutečnosti mají pouze slabou AI.
Úzké nebo slabé systémy umělé inteligence nemají obecnou inteligenci; mají zvláštní inteligenci. AI, který je odborníkem na to, aby vám řekl, jak řídit z bodu A do bodu B, je obvykle neschopný vyzvat vás k šachové hře. A AI, která může předstírat, že s vámi mluví čínsky, pravděpodobně nemůže zamést podlahy.
Slabá umělá inteligence pomáhá převádět velká data na použitelné informace detekováním vzorců a předpovídáním. Mezi příklady patří zpravodajství na Facebooku, Amazonovy doporučené nákupy a Apple's Siri, technologie iPhone, která odpovídá na vyslovené dotazy uživatelů. Filtry nevyžádané pošty jsou dalším příkladem slabé AI, kde počítač používá algoritmus, aby zjistil, které zprávy jsou pravděpodobně spamem, a poté je přesměruje z doručené pošty do složky spam.
Omezení slabé AI
Mezi problémy s Weak AI patří mimo jiné omezené možnosti možnost poškození v případě selhání systému - pomyslete na vozidlo bez řidiče, které nesprávně vypočítá umístění protijedoucího vozidla a způsobí smrtící kolizi - a možnost způsobit poškození, pokud systém používá někoho, kdo chce způsobit újmu - například terorista, který používá auto s vlastním pohonem k rozmístění výbušnin v přeplněném prostoru. Další problém s tím je určování, kdo je zaviněn poruchou nebo konstrukční vadou.
Dalším problémem je ztráta pracovních míst způsobená automatizací rostoucího počtu úkolů. Vyroste nezaměstnanost nebo přijde společnost s novými způsoby, jak být lidé ekonomicky produktivní? Ačkoli vyhlídky na to, že velké procento pracovníků ztratí zaměstnání, mohou být děsivé, je rozumné očekávat, že pokud k tomu dojde, objeví se nová pracovní místa, která zatím nemůžeme předvídat, protože používání AI se stále více rozšiřuje.
