AI expert: AI met gevoel en... voorspellen

Hoe staat het nu met intelligentie en gevoel? Wordt met AI de wereld als geheel intelligenter, of enkel de bedrijven die diensten aan klanten aan bieden?
En, wat is nu echt belangrijk om te weten over - de grenzen van - AI en wat weten we nog niet? Die laatste vraag is natuurlijk retorisch. Maar dat er grenzen zijn, daar ben ik wel van overtuigd. Vooral wanneer ik het tweede verhaal lees. Maar eerst dit: 

Een. Dit onderstaande interview is al weer een jaar oud:

Interview • 8 juni ('23): AI-pionier Pieter Abbeel: ‘Het is niet onmogelijk dat er kunstmatige intelligentie met gevoel komt.’ 

"Hij drinkt koffie met Jeff Bezos en haalt geld op bij Bill Gates. Want in zijn lab in Berkeley leerde Pieter Abbeel robots denken met een techniek die een onmisbaar ingrediënt zou vormen voor ChatGPT. De Vlaamse AI-hoogleraar/ondernemer/investeerder pleit voor enthousiasme én voorzichtigheid, met dit niet ondenkbare scenario: 'Om er zeker van te zijn dat jij koffie hebt, besluit de computer de wereld te veroveren.'

Pieter Abbeel: 'Er zijn twee soorten: AI die patronen herkent en AI die patronen herkent met een doel. Bij die tweede wordt het tricky.' 

In het kort 

De 45-jarige Vlaming Pieter Abbeel werd al op zijn dertigste hoogleraar aan de befaamde University of California in Berkeley.

De hype rond AI is terecht, oordeelt hij.

Een open brief om AI-onderzoek wereldwijd een half jaar op pauze te zetten ondertekende hij niet.

Maar: 'We hebben iets heel krachtigs dat we niet volledig begrijpen, en daar horen risico’s bij op verschillende niveaus.'

De overlevering wil dat Joseph Kennedy senior, de vader van de latere Amerikaanse president John F., in 1929 van zijn schoenpoetser ongevraagd aandelentips kreeg. Kennedy zag het als een signaal dat een financiële bubbel op barsten stond. Hij verkocht al zijn aandelen en verdiende op het perfecte moment een fortuin op Wall Street, vlak voor de beurzen een van de zwaarste crashes ooit inzetten.

Met dat verhaal in het achterhoofd: zegt het gesprek dat Pieter Abbeel onlangs voerde met de nanny van zijn twee jonge kinderen iets over de hype rond artificiële intelligentie (AI)? De hoogleraar computerwetenschappen vertelde haar dat hij voor zijn podcast The Robot Brain een afspraak had met 'de godfather van AI'. 'De nanny antwoordde: “Ha, je bedoelt Geoff Hinton, die onlangs Google verliet zodat hij vrijuit kan praten over de risico’s van de snelle ontwikkeling van AI?” Dat vond ik een bijzonder moment’, zegt Abbeel in zijn thuiskantoor in Californië.

De 45-jarige Vlaming werd na een academische blitzcarrière via Leuven en Stanford al op zijn dertigste hoogleraar aan de befaamde University of California in Berkeley. Sindsdien geldt hij als een van de grensverleggende breinen in de AI-wereld. Na de lancering van de slimme conversatiebot ChatGPT een halfjaar geleden is de aandacht voor AI geëxplodeerd. En terecht, vindt Abbeel. ‘De snelheid waarmee AI ingeburgerd raakt, is fenomenaal.’

Al Abbeels doctoraatsstudenten gebruiken AI om sneller softwarecode te schrijven. Een van zijn ex-studenten is John Schulman, de hoofdarchitect van ChatGPT bij OpenAI, waar Abbeel in 2016 zelf ook een jaar werkte.

Het lab dat hij in Berkeley leidt, is gespecialiseerd in een vorm van AI die reinforcement learning heet. Bij die techniek wordt een algoritme steeds beter in het bepalen van een optimale uitkomst, omdat het menselijke feedback krijgt en wordt beloond voor de juiste strategie. Net die geheime saus maakte het verschil bij het taalmodel achter ChatGPT.

‘Het model wordt getraind door alle min of meer redelijke tekst die op het internet te vinden is', legt Abbeel uit. 'Door daarover een laag van menselijke feedback te leggen, begrijpt het systeem het patroon dat mensen wenselijk vinden. En zo werd het veel beter. Het is dus een graduele technologische revolutie, maar wel degelijk echt een sprong vooruit. Ik denk niet dat iemand had verwacht dat het zo hard zou gaan. Het enthousiasme is terecht.’

Voor zijn onderzoek won Abbeel vorig jaar de ACM Prize in Computing, de op een na hoogste onderscheiding in het domein van de computerwetenschappen, na de Turing Award. Abbeel en zijn teamgenoten slaagden erin een robot - BRETT: Berkeley Robot for Elimination of Tedious Tasks - aan te leren een handdoek van de grond op te rapen en op te vouwen, wat een complexe vaardigheid is omdat een stuk textiel nooit op exact dezelfde manier valt.

‘Je ziet start-ups die amper zijn opgericht en meteen $100 mln waard zijn, of zelfs $1 mrd’

De laatste tijd concentreert Abbeels lab zich op de vraag of robots meer zoals mensen kunnen leren. ‘De grote neurale netwerken in AI, zoals ChatGPT, worden getraind met enorme hoeveelheden data, absorberen een patroon en doen vervolgens iets slims. Maar mensen leren totaal anders. Je gaat niet eerst het hele internet aan je kind voeren. Een kind ziet maar heel weinig van de wereld, en toch maakt die gelimiteerde blootstelling een vorm van intelligentie mogelijk die ik nog altijd superieur zou noemen. Hoe komen we tot een manier van intelligentie verwerven die meer op die van mensen lijkt? Niet om AI menselijker te maken, maar omdat menselijke intelligentie nog altijd robuuster is. We hebben nog geen grote doorbraken, we beginnen er nog maar net aan. Maar ik denk dat er muziek in zit.’

Voortbouwend op zijn expertise richtte Abbeel in 2017 samen met ex-studenten Covariant op, een bedrijf dat grote magazijnen voor e-commerce automatiseert. Onder meer voor Radial, de Amerikaanse dochter van Bpost. De Duitse postorderreus Otto bestelde onlangs 120 robots. Covariant haalde al $222 mln aan kapitaal op. Vorige maand stapte ook Bill Gates in.

Behalve hoogleraar en ondernemer bent u ook investeerder, via AIX, een durffonds dat zich richt op start-ups met een veelbelovende AI-toepassing. Klopt het dat er een goldrush-sfeer hangt?

‘Het is wild. Je ziet start-ups die amper zijn opgericht en meteen $100 mln waard zijn, of zelfs $1 mrd. Dat moet ook wel zo, want die bedrijven hebben tientallen, honderden miljoenen aan budget voor computerkracht nodig om hun eerste mijlpalen te bereiken. Het gevoel leeft dat er een ongelimiteerd potentieel voor AI is. Dat betekent meer concurrentie voor ons, want elke durfkapitalist springt nu op AI. Ons voordeel: wij kunnen inschatten wat realistisch is en wat minder.’

Tegelijk met de hype is een existentieel debat losgebarsten. We memoreerden al de Britse AI-pionier Geoff Hinton, die zich losrukte van zijn goedbetaalde baan bij Google om vrij te kunnen waarschuwen voor de negatieve gevolgen van zijn levenswerk.

‘Geoff vertelde in mijn podcast dat voor hem het kantelpunt lag bij AI die grappen begint te begrijpen. Het idee was lang: AI kan niet grappig zijn, alleen per ongeluk, en echte humor is iets menselijks. Maar het punt waarop AI humor kan produceren is intussen bereikt. Vandaar Hintons redenering: we kunnen niet meer aan die risico’s denken als iets van de verre toekomst, we moeten er nu mee bezig zijn.’

‘De AI die we nu hebben, begrijpt niet volledig wat een persoon begrijpt, maar heeft toch heel veel dingen bij het juiste eind. We hebben iets heel krachtigs dat we niet volledig begrijpen, en daar horen risico’s bij op verschillende niveaus. Veel mensen denken meteen aan banen die verdwijnen. Nu al kan ChatGPT bepaalde schrijftaken aan. Gaat dat onze productiviteit boosten nu wij dus andere dingen kunnen doen? Of weten we niet meer wat? Historisch gezien hebben we altijd nieuwe banen en nieuwe dingen om te doen uitgevonden, maar op korte termijn kan er zeker een schok komen.’

‘Maar er zijn ook risico’s zoals geautomatiseerde scams, of concentratie van rijkdom en macht. Wat als OpenAI het enige bedrijf ter wereld wordt, omdat ChatGPT al het werk doet voor iedereen? Een beetje extreem, natuurlijk, maar het is ook erg complex. Wat als een bedrijf alles kan doen en al het geld heeft? Nu al maken we ons zorgen over ongelijkheid. En dat zal alleen maar toenemen.’

De Franse computerwetenschapper Yann Lecun, die voor Meta werkt, vindt de onrust over ‘God-like AI’ sterk overdreven en stelt dat we nog niet eens ‘dog-like AI’ hebben.

‘Volgens mij bedoelt Yann dat er wel degelijk veel risico’s zijn, maar dat we ons geen zorgen hoeven te maken over het managen ervan. Vergelijk het met een vliegtuig: als je het fout doet, gaat het vreselijk mis. Maar als je het juist doet, biedt het enorme voordelen. Yann zegt dat AI ook beheersbaar is. En zelfs als we het niet perfect beheersen, is het nog altijd redelijk oké. Ik weet niet helemaal zeker waarom hij zoveel vertrouwen heeft, maar dat is zijn standpunt.’

Waar plaatst u zichzelf in dat spectrum?

Denkt lang na. ‘Misschien toch een beetje meer in de richting van Hinton. Geoff is trouwens optimistisch dat we dit kunnen oplossen, hij wil zeker niet alles tegenhouden. Hij ziet de voordelen van AI, maar wil gewoon dat meer mensen in het domein bezig zijn met de vraag: hoe kunnen we onze doelen op één lijn brengen met die van AI, zodat het geen dingen gaat doen die we niet willen?’

‘Als ChatGPT veel positieve dingen kan maar ook enkele negatieve, wordt het dan wel mogelijk het in te perken zonder de voordelen te vernietigen?’

‘Er zijn eigenlijk twee soorten: AI die patronen herkent en AI die patronen herkent met een doel. Bij die tweede wordt het tricky. Dan gaat het over dingen willen bereiken. Hoe zorgen we ervoor dat die in lijn zijn met wat mensen willen? En welke mensen? Jij en ik willen verschillende dingen, daarom is politiek zo’n chaos. Als iedereen hetzelfde wilde, werd politiek triviaal. Het is complex.’

‘Het scenario komt misschien dichterbij dan we denken. Waarom heeft AI een doel? Omdat het van mensen een doel kríjgt. Wat als dat iets is als “zoveel mogelijk mensen spammen” of “een krachtig biologisch wapen uitvinden”? Of zelfs een goedaardig doel, zoals “maak elke dag koffie voor me”? Misschien redeneert de AI dan wel dat het alle koffie moet opkopen, gewoon voor de zekerheid, of besluit het zelf plantages te bezitten. Kortom: bescheiden doelen kunnen bepaalde uitkomsten hebben. Om zeker te zijn dat jij koffie hebt, besluit de computer de wereld te veroveren. Maar maak je geen zorgen, je koffie zal er zijn!’

Sommigen pleiten voor een rem van zes maanden op het onderzoek naar krachtige AI. Waarom ondertekende u de open brief van het Future of Life Institute niet?

‘Ik hoorde er pas redelijk laat van. Ik was die week op een conferentie van Jeff Bezos in een resort in San Diego. Maar over het algemeen vind ik het moeilijk zoiets te ondertekenen, want er is zoveel nuance. Wat teken je precies? Teken je voor een idee? Of voor iets specifieks?’

‘Ik ben het er aan de ene kant mee eens dat we mensen bewust moeten maken van de potentiële gevolgen van AI. Maar is het realistisch om zes maanden lang alles tegen te houden? OpenAI heeft een grote voorsprong op andere bedrijven, maar zijn zij echt de slechtst denkbare leider in het veld? Ik denk het niet. Ik denk dat OpenAI in het algemeen redelijk goede bedoelingen heeft.’

In 2017 richtte Abbeel samen met ex-studenten Covariant op, dat grote magazijnen voor e-commerce automatiseert. Foto: Jana Ašenbrennerová

Sam Altman, de ceo van OpenAI, heeft een duidelijke visie over het delen van nieuwe technologie met de maatschappij. Hij wil niets achterhouden, zodat de maatschappij mee de grenzen kan bepalen.

‘Dat is een verschil tussen Google en OpenAI. Google ontwikkelt dingen en maakt ze niet openbaar. OpenAI doet dat wel simultaan. Als OpenAI er niet was, had je met Google een bedrijf dat “overhang” creëerde. Die term slaat op het fenomeen waarbij een bedrijf technologie ontwikkelt waarvan het de capaciteiten niet ten volle kent en dat binnenskamers houdt. Het standpunt van OpenAI is: geen overhang hebben.’

‘Ik vind het idee wel aantrekkelijk: dingen delen samen met de vooruitgang, op een beredeneerde manier, in plaats van alles standaard geheimhouden. OpenAI bestaat uit een honderdtal mensen. Stel dat ze tech hebben die anderen niet hebben en die voor zichzelf houden. Dan is er een klein aantal mensen dat nadenkt over wat er mis kan gaan. Maar als je het deelt, kunnen miljarden mensen erover nadenken. De hoop is dat het zo beter gaat.’

Intussen zijn beleidsmakers in Brussel in actie gekomen om Europese regels voor AI in het leven te roepen. Is dat een goede zaak?

‘Daarom hebben we een overheid en een democratie: zodat we allemaal een stem hebben in wat de beste wereld is waarin we kunnen leven. Ik hoop dat de regulering niet te strikt hoeft te zijn. En ik denk dat we het beste kunnen focussen op de gevolgen van AI. Dat kan het ontwerpen makkelijker maken. Bijvoorbeeld: als AI is gebouwd om mensen te scammen, is dan de persoon die ze heeft gedownload en gebruikt fout, of degene die de AI heeft gemaakt en verkocht voor dat doel? Als ChatGPT veel positieve dingen kan maar ook enkele negatieve, wordt het dan wel mogelijk het in te perken zonder de voordelen te vernietigen? Is OpenAI dan schuldig? Waar trek je de lijn?’

De heilige graal is AGI, artificial general intelligence die het menselijke intellect evenaart en overstijgt. Komt dat met de recente doorbraken dichterbij?

‘Dat is een moeilijke vraag. Het begint al met de definitie. Sommigen definiëren AGI als een AI die 80% van onze banen aankan. Wat begint te ontstaan, is dat van 80% van de banen 80% door AI wordt gedaan. Die kant lijkt het op te gaan.’

‘De originele, abstracte definitie van AGI is: iets dat even capabel is als een mens, heel breed gezien. Over alle menselijke capaciteiten heen dus, en niet gewoon uitblinken in een nicheactiviteit zoals schaken of een ander spel. De flexibiliteit om je aan te passen aan situaties, ik denk niet dat we echt begrijpen hoe het komt dat mensen die hebben. De huidige manier waarop we AI ontwikkelen, door systemen te trainen op alle data die we op het internet vinden, is volgens mij dus wat gelimiteerd. Het is me niet zo duidelijk dat we met volgende versies van GPT dat punt van AGI zullen bereiken. Als we het met meer menselijke feedback ontwikkelen, komen we misschien dichterbij. Maar ik denk dat we nog altijd iets missen. We weten alleen niet goed wat.’

‘Willen we een AI waarbij we ons slecht voelen als we haar uitschakelen, omdat we vinden dat ze levend is? Dat soort vragen zullen komen’

‘We beginnen neurale netwerken te bouwen die ongeveer even groot zijn als het menselijk brein, en binnenkort allicht groter. Ons brein bestaat uit zo’n 100 miljard neuronen en 100 biljoen (100.000 miljard, red.) connecties daartussen. Onze hersenen zijn uiteraard gevormd door miljoenen jaren aan evolutie. Is het geschift om aan te nemen dat er een computer komt die slimmer is dan mensen? Ik denk dat het geschift is om aan te nemen dat het niet zo zal zijn. Kijk gewoon naar de curve van de vooruitgang en ik denk dat we toch wat shortcuts in de evolutie kunnen nemen.’

‘Mij lijkt AGI een natuurlijk gevolg in de komende honderd jaar. Het gebeurt in elk geval niet nu, en niet over vijf jaar. Maar het is moeilijk om verdere voorspellingen te doen.’

Wat vindt u van de discussie over AI die gevoelens zou koesteren? Een Google-ingenieur werd vorig jaar ontslagen omdat hij bleef volhouden dat het AI-model van het bedrijf een bewustzijn had.

‘Dat was sterk opgeblazen. Die ingenieur zag veel meer in de AI dan er was. Tegelijk is het interessant dat die discussies niet meer al te zeer van de pot gerukt zijn. Heeft onze huidige AI een “gezond verstand”? Wat betekent dat? Het is niet onmogelijk dat er een AI komt met gevoel, als we die willen bouwen. We weten nu niet hoe het moet, maar het lijkt niet te vergezocht dat we op een dag die beslissing nemen. Willen we een AI waarbij we ons slecht voelen als we haar uitschakelen, omdat we vinden dat ze levend is? Dat soort vragen zullen komen. Dus het is intrigerend om te zien dat die vragen rijzen en een debat in gang zetten.’

Van welk scenario droomt u? Wat hoopt u tijdens uw leven nog van AI te zien?

‘Op een meer basic niveau zie ik AI die ons helpt met taken thuis, op het werk, in fabrieken, in digitaal werk. Zodat ze ons helpt te doen wat we willen doen en in staat stelt meer te doen. Op een hoger niveau hoop ik dat AI ook een wetenschapper wordt. AI zal nieuwe dingen uitvinden en experimenten voorstellen. Oplossingen als betere batterijen, betere zonnecellen, middelen tegen alle soorten kanker, superkleine robots die operaties uitvoeren. Stel je eens voor dat we een miljard Einsteins hebben die aan de problemen van vandaag werken.’ " Copyright: Roel Verrycken, De Tijd

Cv

Pieter Abbeel (45) studeerde af als ingenieur aan de KU Leuven haalde een doctoraat in artificiële intelligentie aan Stanford University in Californië. Sinds 2008 is hij hoogleraar aan de universiteit van Berkeley, vlak bij San Francisco. Hij leidt er het Berkeley Robot Learning Lab.

In 2016 werkte Abbeel een jaar voor OpenAI, dat toen net was opgericht door onder anderen Elon Musk. In 2017 richtte hij met studenten de start-up Covariant op, die e-commercebedrijven wil automatiseren met robots die nieuwe handelingen kunnen leren. Hij is ook de medeoprichter van AIX Ventures, een durffonds dat in jonge AI-bedrijven investeert. (Bron: https://fd.nl/tech-en-innovatie/1477707/ai-pionier-pieter-abbeel-het-is-niet-onmogelijk-dat-er-kunstmatige-intelligentie-met-gevoel-komt)

Knack biedt een aktueel interview met de hoogleraar:

Het merendeel van de bedrijven ziet niet hoe artificiële intelligentie (AI) hun werking efficiënter kan maken, blijkt uit een onderzoek van de consultant BDO. Slechts vier op de tien Belgische bedrijven hebben plannen met AI. Dat is niet onverwacht, volgens de gerenommeerde AI-professor Pieter Abbeel. Voor veel bedrijven is het nog wachten op gespecialiseerde tools op maat. Hoe krijgen we Belgische bedrijven mee en kan AI mee de problemen in de arbeidsmarkt oplossen?

https://trends.knack.be/nieuws/inspiratie/pieter-abbeel-is-wereldautoriteit-in-artificiele-intelligentie-bedrijven-die-ai-blijven-negeren-zullen-een-niche-in-hun-industrie-worden/

Twee. Voorspellen en Risico-nemen.

GPT-4 voorspelt bedrijfswinsten: ‘De beursanalist die AI gebruikt, zal de beursanalist vervangen die dat niet doet’

--

Een nieuwe studie van de Universiteit van Chicago laat zien dat GPT-4 van OpenAI nauwkeuriger bedrijfswinsten kan voorspellen dan menselijke experts. Staat de baan van de financieel analist op de tocht? “De technologie kan beursanalisten ondersteunen en hun werk efficiënter maken, maar de menselijke intuïtie en ervaring blijven onmisbaar.”

Beursanalisten leunen op hun vakkennis en ervaring om de financiële status van een onderneming te evalueren en haar toekomstige inkomsten te voorspellen. Een onderzoek van de Amerikaanse businessuniversiteit van Chicago toont echter aan dat AI-modellen die taak mogelijk net zo goed, of zelfs beter kunnen uitvoeren.

Het taalmodel ontving geanonimiseerde financiële data over bedrijven, zoals balansen en resultatenrekeningen, en werd verzocht de toekomstige winstgroei te voorspellen. Zelfs zonder extra context, zoals informatie over de sector, wist GPT-4 een nauwkeurigheid van 60 procent voor te leggen. Dat is aanzienlijk hoger dan het bereik van 53 à 57 procent van menselijke analisten. We vroegen Nicolas Deruytter, de CEO van de Gentse ontwikkelaar van AI-oplossingen ML6, en Tom Simonts, financieel econoom van KBC, of de betrouwbaarste beleggingstactiek nu door Open AI wordt aangeleverd.

Wat bijdraagt aan het succes van GPT-4, is het gebruik van chain of thought prompts, die hielpen het analytische proces van financiële analisten na te bootsen. Wat zijn dat?

NICOLAS DERUYTTER. “Chain of thought prompting is een methode die wordt toegepast in het domein van natuurlijke taalverwerking (NLP) en artificiële intelligentie (AI) om de redeneer- en probleemoplossende vermogens van taalmodellen te optimaliseren. In plaats van een directe en beknopte respons te geven op een vraag of een probleem, stimuleren die prompts het model om geleidelijk door het denkproces te gaan en elke fase expliciet te formuleren. Dat kan helpen om complexe kwesties beter te begrijpen en meer precieze en gedetailleerde antwoorden te formuleren.

“Het model wordt gevraagd eerst de gegevens te analyseren en vervolgens de stappen te doorlopen die nodig zijn om tot een voorspelling te komen.”

Wat zijn de voordelen van die prompts?

DERUYTTER. “In de praktijk willen we niet dat het systeem zelf beslist hoe een proces eruit moet zien. Als ik het betrek op ons bedrijf, dan begeleiden we het proces veel meer en coderen de stappen hard.

“Bij productinnovatie gebruiken we bijvoorbeeld autonome agenten die samenwerken aan een gestructureerd proces, waarbij elke stap nauwkeurig wordt gevolgd en geanalyseerd. Allereerst analyseren we trends op sociale media. Op basis van die trends worden samenvattingen gemaakt, zodat we kunnen identificeren wat populair is. Vervolgens ontwikkelen we concepten op basis van die trends, wat een vorm van ideevorming (ideation) is. In de derde stap vragen we feedback van synthetische experts, zoals AI’s die zich voordoen als experts op het gebied van supplychain of branding. Op basis van die feedback wordt het concept verder verfijnd en verbeterd.”

TOM SIMONTS. “Hoe je een LLM (large language model, nvdr) traint, is cruciaal voor de uitkomsten die het genereert. Er zijn voorbeelden van modellen die de mist ingaan, omdat ze zijn getraind met eenzijdige data. Een diverse en uitgebreide dataset is essentieel om een breed scala aan situaties en variabelen te kunnen begrijpen en accuraat te voorspellen. Dat voorkomt dat we in een situatie terechtkomen waarin iedereen dezelfde conclusies trekt en de markt saai en voorspelbaar wordt.”

Kunnen AI-modellen op termijn menselijke analisten vervangen?

SIMONTS. “GPT-4 kan op basis van big data beter trends en correlaties ontdekken dan wij ooit konden, zoals de relatie tussen het weer en de afzetmarkt. Dat biedt analisten de mogelijkheid om hun analyses te verfijnen met inzichten die voorheen moeilijk te verkrijgen waren. Echter, er zijn altijd intermediaire factoren zoals de regelgeving, geopolitieke spanningen en cybersecurity-issues die roet in het eten kunnen gooien. Managementbeslissingen en onvoorziene gebeurtenissen blijven gebieden waar menselijke intuïtie en ervaring cruciaal zijn.

“Net zoals over financiële analisten hoor je weleens speculeren of AI journalisten zou kunnen vervangen. Goede journalisten voegen waarde toe door verbanden te leggen en context te bieden, iets wat AI moeilijk volledig kan overnemen. Dat geldt ook voor financiële analisten: de technologie kan hen ondersteunen en hun werk efficiënter maken, maar de menselijke intuïtie en ervaring blijven onmisbaar.

“GPT-4 kan fungeren als een uitstekende copiloot. Een AI kan bijvoorbeeld perfect de kwartaalresultaten analyseren, maar het begrijpen van de impact van een nieuwe CEO of een plotselinge crisis blijft voorbehouden aan de menselijke analist.”

DERUYTTER. “De kosten om analysewerk te verrichten dalen drastisch, vergelijkbaar met hoe de boekdrukkunst boeken goedkoper maakte. Dat betekent dat bepaalde dienstverlening veel goedkoper wordt en wellicht zelfs gecentraliseerd en geglobaliseerd kan worden.

“Het is niet zo dat de menselijke beursanalist zal verdwijnen. Maar de beursanalist die AI gebruikt, zal wel de beursanalist vervangen die dat niet doet.” (bron: https://trends.knack.be/beleggen/gpt-4-voorspellingen-van-bedrijfswinsten/)

Drie. Waar sta ik nu zelf?

IK ben zelf op hele kleine schaal onderzoek aan het doen over AI, ik ben wat aan het programmeren, en ik volg deze technologie meer dan willekeurige elke andere technologische ontwikkeling.

En ik heb een economische studieachtergrond. Dus wanneer ik dan lees dat AI, KI, bedrijfswinsten kunnen voorspellen, dan denk ik: ja, dat kan. niet!

Voorspellen kan namelijk niemand. Of iedereen. Ik ben zelf ook voorspeller van bedrijfswinsten en daarmee de waardering van aandelen. Want als je de winst kan voorspellen, gegeven de big data fundering van historische cijfers, dan kan je een trend extrapoleren. In feite wat econometristen doen. Dat is ook een grote basis van AI.

Maar nu wordt dus een deel van de financiële wereld, slimmer, dan de rest. Maar gaat dat vervolgens ook invloed hebben op de markt als geheel?

Ik denk wanneer ik wat om me heen kijken met programma's die nu aangeboden worden, dan is er veel gratis maar het zijn toch de grote (financiële) bedrijven die hun api's en informatie tegen betaling aanbieden. Dus die tweedeling van intelligentie die is er altijd al geweest.

Per saldo valt het me op hoe laag de volatiliteit de laatste jaren is op de beurs. Behoudens de crisis van 2020 (pandemie) en een bearmarktje in 2022, gaan de koersen in grote lijnen omhoog, zonder dat er enige angst is.

Zijn AI-agents dan niet (meer) bang?

Hoe komen we terug op het verhaal EEN. AI et gevoel is mogelijk!

Maar hoe dat er uit gaat zien weet niemand. komen er dan juist wel een geen grote crashes meer? Maar enkel volledige rationeel beheerste dalingen die langere perioden kunnen duren?

Ik weet het antwoord niet en dit schrijven is niet meer dan een denk-exercitie.

wordt vervolgd...

-- 5 september. Terwijl de positieve / optimistische voorspellingen ons toestromen, worden we wakker geschud van de negatieve effecten van AI: "Duizenden scholieren in Zuid-Korea slachtoffer van deepfake kinderporno - Kunstmatige intelligentie In Zuid-Korea zijn foto’s van duizenden scholieren en studenten gebruikt om nep-porno mee te fabriceren. Ook in Nederland worden er deepfakes en door AI gegenereerde kinderporno gemaakt. „Er wordt ontzettend veel gesodemieterd met techniek.”" (https://www.nrc.nl/nieuws/2024/09/05/duizenden-scholieren-in-zuid-korea-slachtoffer-van-deepfake-kinderporno-a4864739?)



Reacties

Populaire posts van deze blog

Typisch Spaans: Balay

Economie - Teveel wiskunde, te weinig geschiedenis?

Begraven of cremeren?