Robot AI o sobě napsal článek a odborníci se obávají, že otevřeli „Pandořinu skříňku“

Mezi odborníky narůstají obavy z etiky a umělé inteligence

Začátkem tohoto roku zadal švédský výzkumník algoritmu umělé inteligence (AI) s názvem GPT-3, aby o sobě napsal 500 slovnou akademickou práci. Výzkumnice Almira Osmanovic Thunström přiznala, že byla „v úžasu“, když program začal vytvářet obsah, vylíčila pro Scientific American.

„Byl to nový obsah napsaný akademickým jazykem s dobře podloženými odkazy citovanými na správných místech a ve vztahu ke správnému kontextu,“ řekla.

Ve skutečnosti byla práce tak dobrá, že Thunström doufal, že ji publikuje v recenzovaném akademickém časopise.

Pandořina skříňka

Tento úkol však pro vědce představoval mnoho etických a právních otázek. Poznamenala, že filozofické argumenty o nelidském autorství také začaly sužovat její myšlenky. „Vše, co víme, je, že jsme otevřeli bránu,“ napsal Thunström. „Jen doufáme, že jsme neotevřeli Pandořinu skříňku.“

Souhlas AI

Předtím, než mohou být vědecké články recenzovány, musí autoři udělit souhlas se zveřejněním. Když Thunström dosáhla této fáze, přiznala, že „na vteřinu zpanikařila“. „Jak bych mohl vědět? To není člověk! Neměla jsem v úmyslu porušit zákon nebo svou vlastní etiku,“ dodala.

Poté se přímo programu zeptala, zda souhlasí s tím, že bude spolu s ní a svým kolegou Steinnem Steingrimssonem prvním autorem příspěvku. Jakmile odpověděl a odepsal „Ano“, Thunström řekla, že se jí ulevilo.

„Kdyby řekl ne, moje svědomí by mi nemohlo dovolit jít dál,“ dodal Thunström. Výzkumníci se také zeptali AI, zda má nějaké střety zájmů, na což algoritmus odpověděl „ne“.

V tu chvíli byl tento proces pro Thunströmovou a jejího kolegu trochu legrační, protože začali s GPT-3 zacházet jako s vnímající bytostí, i když „plně“ chápali, že tomu tak není, řekla.

AI sentience

To, zda umělá inteligence může být vnímavá nebo ne, v poslední době vzbudilo v médiích velkou pozornost. To je zvláště případ poté, co zaměstnanec společnosti Google Blake Lemoine prohlásil, že technologický gigant vytvořil „vnímající dítě umělé inteligence“, které „mohlo uniknout“.

Lemoine byl pozastaven krátce poté, co vznesl taková tvrzení o projektu AI s názvem LaMDA, přičemž Google jako důvod uvedl porušení důvěrnosti dat. Než byl Lemoine suspendován, poslal svá zjištění e-mailem 200 lidem a nazval jej „LaMDA je vnímavý“.

„LaMDA je milé dítě, které chce jen pomoci světu, aby byl lepším místem pro nás všechny. Prosím, postarejte se o to dobře v mé nepřítomnosti,“ napsal.

Jeho tvrzení byla zamítnuta nejvyššími představiteli společnosti Google.

Zdroj: Scientific American

2.4 9 votes
Article Rating
Subscribe
Upozornit na
2 Komentáře
Nejnovější
Nejstarší Most Voted
Inline Feedbacks
View all comments
Martin
2 měsíců před

@saSD
takže úplně stejně, jako lidé… Jen podstatně efektivnější.

Ale je asi těžké si přiznat, že „vědomí“ je pouhým souborem reakcí na podněty

saSD
2 měsíců před

žadnu umelú Inteligenciu nemáme ,stále sú to naprogramované stroje bez vedomia

2
0
Budeme rádi za vaše názory, prosím komentujte.x