CAMBRIDGE, Mass. (AP) – Computerwetenschappers die hebben bijgedragen aan het leggen van de fundamenten van de hedendaagse kunstmatige-intelligentietechnologie waarschuwen voor de gevaren, maar dat betekent niet dat ze het eens zijn over wat die gevaren zijn of hoe ze kunnen worden voorkomen.
Het voortbestaan van de mens wordt bedreigd als “slimme dingen ons te slim af kunnen zijn”, zei AI’s zogenaamde peetvader Geoffrey Hinton woensdag op een conferentie aan het Massachusetts Institute of Technology.
“Het kan ons een tijdje bezig houden om de energiecentrales draaiende te houden,” zei Hinton. “Maar misschien niet daarna.”
Nadat hij zich had teruggetrokken bij Google om vrijer te kunnen spreken, zei Hinton, 75, dat hij onlangs zijn mening heeft veranderd over de logische mogelijkheden van de computersystemen die hij zijn hele leven heeft onderzocht.
“Deze dingen zullen van ons zijn geleerd door elke roman te lezen die ooit is geschreven en alles wat Machiavelli ooit heeft geschreven over het manipuleren van mensen”, zei Hinton, terwijl hij de menigte toesprak via video vanuit zijn huis die de EmTech Digital-conferentie van MIT Technology Review bijwoonde. “Zelfs als ze niet direct aan hendels kunnen trekken, kunnen ze ons zeker aan hendels laten trekken.”
“Ik wou dat ik een mooie, eenvoudige oplossing had om te pushen, maar die heb ik niet”, voegde hij eraan toe. “Ik weet niet zeker of er een oplossing is.”
De AI-pionier Yoshua Bengio, samen met Hinton medewinnaar van de prijs voor beste informatica, vertelde woensdag aan The Associated Press dat hij het “vrijwel eens” is met de zorgen van Hinton die zijn geuit door chatbots zoals ChatGPT en aanverwante technologieën, maar het niet eens is met te veel zorgen te maken “we zijn gedoemd” zal niet helpen.
“Het belangrijkste verschil, zou ik zeggen, is dat hij een pessimistischer persoon is en ik een optimistischer persoon”, zegt Bengio, een professor aan de Universiteit van Montreal. “Ik denk dat de gevaren – op korte termijn, op lange termijn – zeer serieus zijn en niet alleen door sommige onderzoekers serieus moeten worden genomen, maar ook door regeringen en het publiek.”
Er zijn veel tekenen dat regeringen luisteren. Het Witte Huis heeft de CEO’s van Google, Microsoft en ChatGPT-maker OpenAI uitgenodigd om donderdag vice-president Kamala Harris te ontmoeten voor hun technologie. Europese wetgevers versnellen ook de onderhandelingen om ingrijpende nieuwe AI-regels goed te keuren.
Maar door al het gepraat over de ergste gevaren in de toekomst zijn sommigen bezorgd dat de hype over bovenmenselijke machines – die nog niet bestaan - afleidt van pogingen om praktische waarborgen te bieden voor huidige AI-producten, die grotendeels ongereguleerd zijn.
Margaret Mitchell, een voormalig hoofd van het AI-ethiekteam van Google, zei dat ze boos was dat Hinton zich niet had uitgesproken tijdens zijn decennium in een machtspositie bij Google, vooral na de afzetting van de prominente zwarte wetenschapper Timnit Gebru in 2020, die de schade bestudeerde van grote taalmodellen voordat ze op grote schaal worden gecommercialiseerd in producten als ChatGPT en Google’s Bard.
“Het is een voorrecht dat hij nu kan ontsnappen aan de realiteit van de verspreiding van discriminatie, de verspreiding van haattaal, de giftigheid en niet-consensuele pornografie van vrouwen, al deze kwesties die mensen actief schaden die gemarginaliseerd zijn in technologie die hij vertelde Mitchell, die ook uit Google werd geduwd nadat Gebru was vertrokken. “Hij slaat al deze dingen over om voor iets verder weg te zorgen.”
Bengio, Hinton en een derde onderzoeker, Yann LeCun, die werkt bij Facebook’s moederbedrijf Meta, ontvingen allemaal de Turing Prize 2019 voor hun doorbraken op het gebied van kunstmatige neurale netwerken, die een belangrijke rol hebben gespeeld bij de ontwikkeling van hedendaagse AI-toepassingen zoals ChatGPT hebben.
Bengio, de enige van de drie die geen baan heeft aangenomen bij een technologiegigant, maakt zich al jaren zorgen over AI-risico’s op korte termijn, waaronder destabilisatie van de arbeidsmarkt, geautomatiseerde wapens en de gevaren van vooringenomen datasets.
Maar die zorgen zijn de laatste tijd gegroeid, waardoor Bengio zich bij andere computerwetenschappers en technologieleiders zoals Elon Musk en mede-oprichter van Apple, Steve Wozniak, aansloot om op te roepen tot een onderbreking van zes maanden bij het ontwikkelen van AI-systemen die krachtiger zijn dan het nieuwste model van OpenAI, GPT- 4 .
Bengio zei woensdag dat hij gelooft dat de nieuwste AI-taalmodellen de “Turing-test” al doorstaan, genoemd naar de Britse codebreker en AI-pionier Alan Turing’s methode die in 1950 werd geïntroduceerd om te meten wanneer AI niet langer te onderscheiden is van een mens – althans op de oppervlak.
“Dit is een mijlpaal die drastische gevolgen kan hebben als we niet oppassen”, zei Bengio. “Mijn grootste zorg is hoe ze kunnen worden gebruikt voor snode doeleinden zoals het destabiliseren van democratieën, cyberaanvallen en desinformatie. Je kunt met deze systemen praten terwijl je denkt dat je met een mens omgaat. Ze zijn moeilijk te herkennen.”
Waar onderzoekers minder consensus over hebben, is hoe de huidige AI-taalsystemen – die veel beperkingen hebben, waaronder de neiging om informatie te fabriceren – eigenlijk slimmer worden dan mensen, niet alleen in het onthouden van enorme hoeveelheden informatie, maar ook in het demonstreren van dieper denkvermogen.
Aidan Gomez was een van de co-auteurs van de baanbrekende paper uit 2017 waarin een zogenaamde Transformer-techniek werd geïntroduceerd – de “T” aan het einde van ChatGPT – om de prestaties van machine learning-systemen te verbeteren, vooral met betrekking tot hoe ze leren van passages tekst. Toen nog maar 20 jaar oud, een stagiair bij Google, herinnert Gomez zich dat hij op een bank lag op het hoofdkantoor van het bedrijf in Californië terwijl zijn team rond 3 uur ‘s nachts de krant deed opsturen.
“Aidan, dit gaat zo geweldig worden”, herinnert hij zich toen een collega hem vertelde over het werk dat sindsdien heeft geleid tot nieuwe systemen die in staat zijn om mensachtig proza en beeldmateriaal te produceren.
Zes jaar later en nu de CEO van zijn eigen AI-bedrijf genaamd Cohere, waarin Hinton investeerde, is Gomez enthousiast over de mogelijke toepassingen van deze systemen, maar hij maakt zich zorgen over het zaaien van angst. en “vertrouwt erop”. tot buitengewone sprongen van verbeelding en denken.”
“Het idee dat deze modellen op de een of andere manier toegang krijgen tot onze kernwapens en een soort uitstervingsevenement lanceren, is geen productief discours”, zei Gomez. “Het is schadelijk voor deze echt pragmatische politieke inspanningen die proberen iets goeds te doen.”
Toen hem werd gevraagd naar zijn investering in Cohere Wednesday te midden van zijn algemene zorgen over AI, zei Hinton dat hij niet van plan is zijn investering terug te trekken, aangezien er nog steeds veel nuttig gebruik van taalmodellen in de geneeskunde en elders is. Hij zei ook dat hij geen slechte beslissingen nam tijdens het voortzetten van het onderzoek dat hij in de jaren zeventig was begonnen.
“Tot voor kort dacht ik dat deze existentiële crisis nog ver weg was”, zei Hinton. “Dus ik heb niet echt spijt van wat ik heb gedaan.”