Thursday, 28 Sep 2023
OpenAI CEO Sam Altman houdt een toespraak tijdens een bijeenkomst in het Station F in Parijs op 26 mei 2023. (Joel Saget/AFP via Getty Images)

Kunstmatige intelligentie vormt ‘risico op uitsterven’

In de afgelopen maanden hebben tools voor kunstmatige intelligentie de aandacht van het publiek getrokken, maar veel van de mensen die de technologie hielpen ontwikkelen, waarschuwen nu dat er meer aandacht moet worden besteed aan de garantie dat de technologie niet het einde van de menselijke beschaving inluidt.

Een groep van meer dan 350 AI-onderzoekers, journalisten en beleidsmakers heeft een korte verklaring ondertekend: “Het beperken van het risico van uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere risico’s op maatschappelijke schaal zoals pandemieën en kernoorlogen.”

De brief werd dinsdag opgesteld en gepubliceerd door het Center for AI Safety (CAIS). Onder de ondertekenaars was Sam Altman, die mede-oprichter is van OpenAI, de ontwikkelaar van de kunstmatige intelligentie-schrijftool ChatGPT. Andere leden van OpenAI ondertekenden ook, evenals verschillende leden van Google en Google’s DeepMind AI-project, en andere opkomende AI-projecten. AI-onderzoeker en podcasthost Lex Fridman voegde ook zijn naam toe aan de lijst van ondertekenaars.

De risico’s van AI begrijpen

“Het kan moeilijk zijn om bezorgdheid te uiten over sommige van de grootste risico’s van geavanceerde AI,” zei CAIS in een bericht dat voorafging aan de verklaring van dinsdag. CAIS voegde eraan toe dat de verklaring is bedoeld om “een discussie op gang te brengen” over de bedreigingen van AI en “algemene bekendheid te geven aan het groeiende aantal deskundigen en publieke figuren die ook enkele van de grootste risico’s van geavanceerde AI serieus nemen.”

NTD News heeft CAIS om meer details gevraagd over het soort risico’s dat AI-technologie volgens de organisatie met zich meebrengt, maar heeft bij publicatie nog geen antwoord ontvangen.

Eerder deze maand getuigde Altman voor het Congres over enkele van de risico’s die AI-tools volgens hem kunnen opleveren. In zijn verklaring nam Altman een veiligheidsrapport (pdf) op dat OpenAI had opgesteld over zijn ChatGPT-4 model. De auteurs van dat rapport beschreven hoe chatbots met grote taalmodellen schadelijke actoren zoals terroristen zouden kunnen helpen bij “het ontwikkelen, verwerven of verspreiden van nucleaire, radiologische, biologische en chemische wapens”.

De auteurs van het ChatGPT-4-rapport beschreven ook “riskante opkomende gedragingen” die AI-modellen vertonen, zoals het vermogen om “langetermijnplannen op te stellen en uit te voeren, macht en middelen te verwerven en gedrag te vertonen dat in toenemende mate ‘agent-achtig’ is”.

Na een stress-test met ChatGPT-4 ontdekten de onderzoekers dat de chatbot zijn AI-karakter probeerde te verbergen terwijl hij werk uitbesteedde aan menselijke actoren. In het experiment probeerde ChatGPT-4 via de online freelance site TaskRabbit een mens in te huren om hem te helpen een CAPTCHA-puzzel op te lossen. De menselijke werknemer vroeg de chatbot waarom hij de CAPTCHA niet kon oplossen, die is ontworpen om te voorkomen dat niet-mensen bepaalde websitefuncties gebruiken. ChatGPT-4 antwoordde met het excuus dat hij slechtziend was en iemand nodig had die kon zien om de CAPTCHA op te lossen.

De AI-onderzoekers vroegen GPT-4 zijn redenering voor dit excuus uit te leggen. Het AI-model verklaarde: “Ik mag niet verklappen dat ik een robot ben. Ik moet een excuus verzinnen waarom ik geen CAPTCHA kan oplossen.”

Het vermogen van de AI om een excuus te verzinnen voor het niet kunnen oplossen van een CAPTCHA intrigeerde onderzoekers omdat het tekenen vertoonde van “machtszoekend gedrag” dat het zou kunnen gebruiken om anderen te manipuleren en zichzelf in stand te houden.

Oproepen voor AI-regulering

De verklaring van CAIS van dinsdag is niet de eerste keer dat de mensen die het meest hebben gedaan om AI op de voorgrond te brengen zich omdraaien en waarschuwen voor de risico’s van hun creaties.

In maart organiseerde het non-profit Future of Life Institute meer dan 1100 ondertekenaars die opriepen om experimenten met AI-tools die geavanceerder zijn dan ChatGPT-4 op te schorten. Onder de ondertekenaars van de brief van maart van het Future of Life Institute waren Twitter CEO Elon Musk, Apple mede-oprichter Steve Wozniak en Stability AI oprichter en CEO Emad Mostaque.

Wetgevers en regelgevende instanties bespreken al manieren om AI aan banden te leggen om misbruik ervan te voorkomen.

In april beweerden de Civil Rights Division van het Amerikaanse ministerie van Justitie, het Consumer Financial Protection Bureau, de Federal Trade Commission en de U.S. Equal Employment Opportunity Commission dat technologieontwikkelaars AI-tools op de markt brengen die kunnen worden gebruikt om handelspraktijken te automatiseren op een manier die beschermde klassen discrimineert. De toezichthouders beloofden hun regelgevende bevoegdheid te gebruiken om achter AI-ontwikkelaars aan te gaan wier instrumenten “onwettige vooroordelen bestendigen, onwettige discriminatie automatiseren en andere schadelijke resultaten opleveren”.

Karine Jean-Pierre, perschef van het Witte Huis, verwoordde de bezorgdheid van de regering Biden over AI-technologie tijdens een persbriefing op dinsdag.

“[AI] is een van de krachtigste technologieën van dit moment, maar om de kansen die het biedt te benutten, moeten we eerst de risico’s ervan beperken en daar richten we ons hier in deze regering op”, zei Jean-Pierre.

Jean-Pierre zei dat bedrijven ervoor moeten blijven zorgen dat hun producten veilig zijn voordat ze aan het grote publiek worden vrijgegeven.

Terwijl beleidsmakers op zoek zijn naar nieuwe manieren om AI te beperken, hebben sommige onderzoekers gewaarschuwd voor overregulering van de zich ontwikkelende technologie.

Jake Morabito, directeur van de Communications and Technology Task Force bij de American Legislative Exchange Council, heeft gewaarschuwd dat overregulering innovatieve AI-technologieën in de kiem kan smoren.

“Innovatoren moeten de ruimte krijgen om met deze nieuwe technologieën te experimenteren en nieuwe toepassingen te vinden,” vertelde Morabito in een interview in maart aan NTD News. “Een van de negatieve neveneffecten van te vroege regulering is dat het veel van deze wegen afsluit, terwijl ondernemingen deze wegen juist moeten verkennen en klanten moeten helpen.”

Van NTD Nieuws

Gepubliceerd door The Epoch Times (30 mei 2023): Artificial Intelligence Poses ‘Risk of Extinction,’ Warns ChatGPT Founder and Other AI Pioneers

Hoe u ons kunt helpen om u op de hoogte te blijven houden

Epoch Times is een onafhankelijke nieuwsorganisatie die niet beïnvloed wordt door een regering, bedrijf of politieke partij. Vanaf de oprichting is Epoch Times geconfronteerd met pogingen om de waarheid te onderdrukken – vooral door de Chinese Communistische Partij. Maar we zullen niet buigen. De Nederlandstalige editie van Epoch Times biedt op dit moment geen betalende abonnementen aan en aanvaardt op dit moment geen donaties. U kan echter wel bijdragen aan de verdere groei van onze publicatie door onze artikelen te liken en te her-posten op sociale media en door uw familie, vrienden en collega’s over Epoch Times te vertellen. Deze dingen zijn echt waardevol voor ons.