Sobota, 27 července, 2024

Bývalý šéf Googlu říká, že umělá inteligence je stejně nebezpečná jako jaderné zbraně

TechnologieVšechny článkyZajímavosti

Eric Schmidt řekl, že byl „naivní ohledně dopadu toho, co děláme“, ale že „vyzbrojení“ AI může „spustit druhou stranu“

Bývalý generální ředitel společnosti Google Eric Schmidt označil umělou inteligenci za stejně nebezpečnou jako jaderné zbraně. Eric Schmidt ve svém projevu na Aspen Security Forum počátkem tohoto týdne řekl, že je „naivní, pokud jde o dopad toho, co děláme“, ale že informace jsou „neuvěřitelně mocné“ a „vláda a další instituce by měly vyvíjet větší tlak na technologie, tyto věci jsou v souladu s našimi hodnotami.“ Napsal server Independent.

„Pákový efekt, který technologie má, je velmi, velmi reálný. Pokud přemýšlíte o tom, jak vyjednáme dohodu o AI? Nejprve musíte mít technology, kteří rozumí tomu, co se bude dít, a pak musíte mít povědomí na druhé straně.

„Řekněme, že si chceme s Čínou promluvit o nějaké smlouvě ohledně překvapení AI. Velmi rozumné. Jak bychom to udělali? Kdo z americké vlády by s námi spolupracoval? A na čínské straně je to ještě horší? komu zavoláme? …nejsme připraveni na jednání, která potřebujeme.

„V 50. a 60. letech jsme nakonec vytvořili svět, kde existovalo pravidlo ‚žádné překvapení‘ o jaderných testech a nakonec byly zakázány. Je to příklad rovnováhy důvěry nebo nedostatku důvěry, je to pravidlo: ‚žádná překvapení‘.

„Velmi mě znepokojuje, že americký pohled na Čínu jako zkorumpovanou nebo komunistickou nebo cokoli jiného a čínský pohled na Ameriku jako na selhávající… umožní lidem říct ‚Ó můj bože, oni něco chystají‘ a pak začít druh rébusu… protože vyzbrojujete nebo se připravujete, spustíte druhou stranu efektu.“

Schopnosti umělé inteligence byly v průběhu let mnohokrát konstatovány a přeceňovány. Generální ředitel Tesly Elon Musk často říkal, že umělá inteligence je vysoce pravděpodobně hrozbou pro lidi, a nedávno Google propustil softwarového inženýra, který tvrdil, že jeho umělá inteligence se stala sebevědomou a vnímavou.

Odborníci však často lidem připomínali, že otázka umělé inteligence je to, k čemu je trénována a jak ji lidé používají. Pokud jsou algoritmy, které trénují tyto systémy, založeny na chybných, rasistických nebo sexistických datech, pak to budou výsledky odrážet.

Zdroj: Independent