Hoe neutraal is de Nobelprijs nog?
Bij de vredesprijs kan ik me nog voorstellen dat het Zweedse Nobelcomité invloed probeert uit te oefenen op de richting van de geschiedenis en de vaart der volkeren*. Maar nu bij natuurkunde, is het dan nodig om richting te willen geven in een net opgestart AI-debat en de ethische gevolgen? Hopfield is een informaticus - begrijp ik - of werkt in de IT en doet onderzoek naar neurale netwerken, en is zodoende geen echte fysicus die "fundamenteel" onderzoek doet. Ook zo'n ouderwets woord, overigens. Wat is nog fundamenteel in deze wereld?
Computable
El Economista
"De recente winnaar van de Nobelprijs voor de Natuurkunde 2024, Geoffrey E. Hinton, beter bekend in de technologiesector als de ‘peetvader van de kunstmatige intelligentie’, verzekerde tijdens zijn toespraak afgelopen dinsdag dat hij, afgezien van al zijn prestaties gedurende zijn carrière, ‘bijzonder trots was dat een van mijn studenten Sam Altman ontsloeg", terwijl hij een duidelijke gifpijl naar de CEO van OpenAI gooide.
Hinton won deze zeer belangrijke prijs deze week gedeeltelijk voor zijn werk met kunstmatige neurale netwerken, maar hij is een van de eerste mensen en een van de historisch gezien belangrijkste profielen in de wereld van AI. Iets meer dan een jaar geleden besloot hij zijn baan bij Google op te zeggen om de samenleving te waarschuwen en te informeren over de potentiële gevaren van deze technologie en het gebruik ervan, zonder de reputatie van het bedrijf aan te tasten of te beschadigen.
En Hinton is een van de vaandeldragers geworden in het bieden van context en het werpen van licht op de gevaren en slechte praktijken die bepaalde bedrijven uitvoeren om AI maximaal te gelde te maken. En in een scenario dat zo belangrijk is als dat van het innen van een Nobelprijs, aarzelde Hinton niet om Sam Altman, CEO van OpenAI en maker van ChatGPT, als gevaar te bestempelen vanwege zijn ambities met deze technologie.
"Ik ben bijzonder trots dat een van mijn studenten Sam Altman heeft ontslagen. En ik denk dat het het beste is om het daarbij te laten", zei Hinton, verwijzend naar Ilya Sutskever, mede-oprichter van OpenAI, die zijn student was terwijl hij promoveerde aan de Universiteit van Toronto.
De reden dat hij dat zei was omdat Sutskever verantwoordelijk was voor het feit dat bijna een jaar geleden de CEO van OpenAI, Sam Altman, werd ontslagen vanwege zijn "agressieve" benadering van de ontwikkeling van AI en zijn geheimhouding.
Hoewel het waar is dat het OpenAI-bestuur kort daarna rectificeerde en Altman werd hersteld en zijn positie terugkeerde, veroorzaakte dat echter een domino-effect dat bij alle bestuursleden buiten het bedrijf terechtkwam, inclusief Sutskever, dat hij zijn eigen bedrijf oprichtte Veilige SuperIntelligence (SSI).
Maar Hilton heeft niet alleen last van Altmans benadering van de ontwikkeling van AI, maar is ook zeer kritisch over de wending die OpenAI heeft genomen, waarbij altruïsme is opgegeven ten gunste van winstgevendheid, wat weer tot hetzelfde leidt: de focus verlaten , en plaats het vóór ontwikkeling.
Bij andere technologieën is het misschien niet zo gevaarlijk, maar als we het over AI hebben, hebben we het over het geven van menselijke capaciteiten aan machines, iets dat zonder controle heel slecht kan aflopen, omdat het steeds moeilijker zal worden om de resultaten van deze technologieën te voorspellen en te controleren. die AI-modellen.
Hinton is niet de enige persoonlijkheid in de sector die Altman heeft bekritiseerd, en mensen die zo invloedrijk en machtig zijn als Elon Musk hebben dat ook bij talloze gelegenheden om soortgelijke redenen gedaan. Niemand twijfelt eraan dat AI een instrument is dat ons leven radicaal zal veranderen, maar bij de ontwikkeling ervan moeten de mens en zijn veiligheid altijd voorrang krijgen, precies zoals deskundigen zonder monetaire belangen achter zich vragen." (Bron: Miguel Terán Haughey, https://www.eleconomista.es/tecnologia/noticias/13027258/10/24/el-dardo-envenenado-que-el-nobel-de-fisica-y-padrino-de-la-inteligencia-artificial-ha-lanzado-a-sam-altman-openai.html)
Reacties