Intellectuele technologieën

    Reflecterend op het interview met Sam Altman (OpenAI) in de Hard Fork-podcast haalt Greg Morris een term aan die ik nog niet kende: ‘intellectuele technologie’.

    Jack Goody and Daniel Bell coined the term intellectual technologies. They were both sociologists, referring to anything that could be used to improve our mental abilities — anything from an abacus, to a clock or a thermometer.

    In zijn boek The Shallows gebruikt Nicholas Carr de term ook. Voor hem zit een verschil tussen technologie die onze fysieke mogelijkheden uitbreidt en technologie die onze manier van denken verandert. Samuel Jones verwoordt dat zo:

    the Internet is an intellectual technology that is radically altering how we think, read, and communicate. Carr suggests that, whereas much technology (such as the plow or microscope) “extends our physical strength” into the outside world, intellectual technology — such as a clock, a map, or the Internet — directly reshapes how we think.

    In mijn huidige gebruik is AI meer iets als een ploeg of microscoop: het geeft me meer of uitgebreidere resultaten met dezelfde inspanning, maar verandert nog niet hoe ik denk. Nog niet…

    Wat is GPT-3 eigenlijk?

    Misschien heb je op Twitter de hashtag #gpt3 voorbij zien komen? Dan was je vlakbij kunstmatige intelligentie. 😉

    GPT-3 staat namelijk voor Generative Pretrained Transformer versie 3 (wikipedia). Kort door de bocht is dat een taalmodel dat ontstaan is door patronen te zoeken in grote hoeveelheden informatie. In dit geval enorme hoeveelheden informatie! Met wat het daar geleerd heeft kan GPT-3 zelf uitgebreid en aardig coherent antwoorden genereren op vragen die je stelt.

    Wat is een taalmodel?

    Wij denken er nooit over na, maar we hebben allemaal een eigen taalmodel. Dat helpt ons sneller te lezen of luisteren. Op basis daarvan vullen we letters en woorden al in voordat we ze lezen:

    Als je bijvoorbeeld al de letters carnava.. voor je ziet, weet je dat je op de puntjes waarschijnlijk een l kunt verwachten. En na het lezen van br… verwacht je hoogstwaarschijnlijk geen k. Niet alleen op letter-niveau, maar ook op woordniveau is de afloop soms goed te voorspellen. Na ‘met terugwerkende …’ verwacht je ‘kracht’ en na ‘het is veel te …’ volgt waarschijnlijk een bijvoeglijk naamwoord (bv ‘heet’ of ‘kort’) en geen zelfstandig naamwoord (bv ‘fiets’ of ‘brood’).

    GPT-3 doet ongeveer hetzelfde, maar omdat het model getraind is op zoveel informatie kan het uitgebreider en beter teksten ‘schrijven’ dan eerdere generatieve taalmodellen (zoals voorganger GPT-2).

    Hoe het dat geleerd heeft legt Jay Alammar in een korte animatie uit: GPT-3 is getraind op 300 miljard tekens tekst, met als doel om woorden te kunnen voorspellen.

    Alles uit de gigantische dataset waaraan het model is blootgesteld is omgezet in 175 miljard parameters. Die gebruikt GPT-3 als je het iets vraagt (input), en op basis daarvan genereert het zelf een antwoord.

    Wat kan GPT-3?

    Eigenlijk kan GPT-3 gewoon schrijven. Alleen dan schrijven in de breedste zin van het woord, van gedichten tot programmeercode. En veel beter dan eerdere AI-taalmodellen.

    In de afgelopen weken is met GPT-3:

    En veel meer.

    En als je puur kijkt naar de kwaliteit van de teksten die GPT-3 ‘schrijft’? Gwern Bransen is onder de indruk:

    GPT-3’s samples are not just close to human level: they are creative, witty, deep, meta, and often beautiful. They demonstrate an ability to handle abstractions, like style parodies, I have not seen in GPT-2 at all. Chatting with GPT-3 feels uncannily like chatting with a human.

    Wat betekent GPT-3?

    In de New York Times is Farhad Manjoo erg overtuigd:

    Software like GPT-3 could be enormously useful. Machines that can understand and respond to humans in our own language could create more helpful digital assistants, more realistic video game characters, or virtual teachers personalized to every student’s learning style. Instead of writing code, one day you might create software just by telling machines what to do.

    Meer praktisch ziet Max Woolf, in vergelijking met GPT-2, twee grote verbeteringen in GPT-3:

    1. it allows generation of text twice the length of GPT-2 (about 10 paragraphs of English text total), and
    2. the prompts to the model better steer the generation of the text toward the desired domain (due to few-shot learning). For example, if you prompt the model with an example of React code, and then tell it to generate more React code, you’ll get much better results than if you gave it the simple prompt. Kortom: het GPT-3-taalmodel kan veel langere teksten genereren en beter gestuurd worden met uitgebreidere input.

    Maar in de online voorbeelden is GPT-3 ook langzaam. En zijn menselijke vooroordelen die overal op internet te vinden zijn ook in het model aanwezig.

    Het is mooi, maar nog zeker geen magie.

    Verantwoordelijke algoritmen

    Frank Pasquale:

    Over the past decade, algorithmic accountability has become an important concern for social scientists, computer scientists, journalists, and lawyers. Exposés have sparked vibrant debates about algorithmic sentencing. Researchers have exposed tech giants showing women ads for lower-paying jobs, discriminating against the aged, deploying deceptive dark patterns to trick consumers into buying things, and manipulating users toward rabbit holes of extremist content. Public-spirited regulators have begun to address algorithmic transparency and online fairness, building on the work of legal scholars who have called for technological due process, platform neutrality, and nondiscrimination principles.

    Door deze eerste golf van wetenschappelijk onderzoek (en activisme) is er breder maatschappelijk bewustzijn ontstaan, wat langzamerhand begint te leiden tot regelgeving. Mede doordat:

    many members of the corporate and governmental establishment now acknowledge that data can be biased, inaccurate, or inappropriate. 

    Pasquale legt uit dat de eerste golf van onderzoek pas het begin was. Daarin lag de focus op het verbeteren van bestaande systemen. Met de tweede golf wordt onderzocht of dergelijke systemen eigenlijk moeten bestaan:

    For example, when it comes to facial recognition, first-wave researchers have demonstrated that all too many of these systems cannot identify minorities’ faces well. These researchers have tended to focus on making facial recognition more inclusive, ensuring that it will have a success rate as high for minorities as it is for the majority population. However, several second-wave researchers and advocates have asked: if these systems are often used for oppression or social stratification, should inclusion really be the goal? Isn’t it better to ban them, or at least ensure they are only licensed for socially productive uses?

    En dat zijn dé vragen.

    Stembestuurde gadgets en CommanderSong-aanvallen

    Stembestuurde gadgets (deze, ja) vind je op steeds meer plekken, van je smartphone met Google Assistent of Siri tot aan praatpalen als Amazon’s Echo en Google Home. Die staan altijd ‘aan’, wat uitnodigt tot grappen.

    Maar iets waar je grappen mee kunt uithalen kun je ook misbruiken. Vandaag linkte Ton naar een wetenschappelijk artikel dat beschrijft hoe je een stembedieningsaanval kunt uitvoeren:

    Specifically, we find that the voice commands can be stealthily embedded into songs, which, when played, can effectively control the target system through ASR without being noticed. For this purpose, we developed novel techniques that address a key technical challenge: integrating the commands into a song in a way that can be effectively recognized by ASR through the air, in the presence of background noise, while not being detected by a human listener. Our research shows that this can be done automatically against real world ASR applications. We also demonstrate that such CommanderSongs can be spread through Internet (e.g., YouTube) and radio, potentially affecting millions of ASR users. 

    Bij ons thuis staat al bijna een jaar een Google Home Mini klaar om te worden aangesloten. Maar ik durf het nog steeds niet aan. Misschien als we meer kunnen controleren, zoals Frank het aanpakte met een slimme stekker en Olisto. Ton’s tip Candle (privacy friendly smart home) klinkt nog beter.

    UX Design voor Machine Learning en ArtificiaI Intelligence

    Vaak lijkt het erop dat wij mensen werken voor de computers. Terwijl dat natuurlijk omgekeerd zou moeten zijn. De vraag is: hoe kun je als designer nieuwe technologie inzetten om echt waarde toe te voegen voor je gebruikers? Zodat ze hun potentieel kunnen verwezenlijken?

    Daarover ging de workshop User Experience Design for ML and AI van Josh Clark (@bigmediumjosh) bij Frozen Rockets Academy. En wat hij als eerste benadrukte is dat machine learning slechts een designmateriaal is, net als HTML of CSS.

    Machine Learning als designmateriaal

    Als je de beschikking krijgt over een nieuw designmateriaal begin je met het ontdekken van de mogelijkheden en beperkingen.

    • Wat kan het?
    • Hoe voelt het?
    • Hoe kunnen we het gebruiken?
    • En hoe verandert het ons?

    Daar moeten we nu mee beginnen, want na het desktop- en het mobile-tijdperk bevinden we in de eerste fase van het Machine Learning-tijdperk.

    Wat kun je nu met Machine Learning?

    Met Machine Learning kunnen we patronen opsporen in data, en daar ‘iets’ mee doen. Josh deelt die mogelijkheden op in vijf categorieën:

    1. Aanbevelingen. Op basis van eerdere interesses kunnen we deze vergelijkbare zaken aanbevelen. Als jij bijvoorbeeld in de Slack van je organisatie zoekt op 'hiring process' zal Slack naast de zoekresultaten ook aanbevelingen tonen voor collega's en kanalen over gerelateerde onderwerpen.
    2. Voorspellingen. Op basis wat je eerder deed verwachten we dat je nu dit wil doen. Een heel concreet voorbeeld zijn de QuickType-suggesties bovenaan je iPhone-toetsenbord (vanaf iOS 13 ook in het Nederlands!). Dit zijn zelflerende suggesties die zich continu aanpassen aan jouw woordgebruik.
    3. Classificaties. Met behulp van door mensen geclassificeerde datasets kan Machine Learning worden getraind om vergelijkbare patronen te herkennen en classificeren. Als je wel eens een enquete hebt gemaakt in Google Forms heb je misschien gezien dat daar real-time suggesties voor antwoordtypes worden gegeven op basis van de vraagstelling. Dit gebeurt op basis van de geclassificeerde keuzes van alle andere Google Forms-gebruikers.
    4. Clustering. Laat Machine Learning juist in ongeclassificeerde data de voor ons mensen onzichtbare patronen herkennen en groeperen.
    5. Generation. Machine learning zelf iets laten genereren, zoals een tekening, portretfoto of muziek.
    Slide met beeld van Quicktype suggesties bovenaan een iPhone software keyboard als voorbeeld van subtiele machine learning

    Toegevoegde waarde van Machine Learning

    Kortom, Machine Learning is gewoon heel goed in het uitvoeren van taken die:

    • veel tijd kosten,
    • zich steeds herhalen,
    • aandacht voor detail vragen,
    • foutgevoelig zijn, en
    • ons geen werkplezier bieden.

    Taken die we graag uitbesteden, waarmee Machine Learning eigenlijk het perfecte stuk gereedschap lijkt te zijn. Een voorbeeld daarvan is het ondersteunen van radiologen door het analyseren van grote hoeveelheden medisch beeldmateriaal. Als M.L. die taken overneemt komt krijgen we:

    • betere antwoorden,
    • nieuwe vragen om te onderzoeken,
    • nieuwe data, en
    • inzicht in onzichtbare patronen.

    Daarmee creëren we voor onszelf de ruimte om te doen waar wij mensen goed in zijn: onze aandacht op een onderwerp richten en daarover een beslissing nemen.

    Uiteindelijk draait het om de verhouding tussen mens en machine. En dat vraagt van UX designers dat zij Artificial Intelligence inzetten op problemen die het waard zijn om opgelost te worden. Want zoals Kranzberg’s First Law stelt:

    Technology is neither good nor bad; nor is it neutral.

    Aan de slag

    Design cards on a table Na het bespreken van de huidige mogelijkheden en toegevoegde waarde van Machine Learning gingen we deze zelf uitproberen. Met speciaal ontworpen kaartsets werkten we ideeën uit in conceptuele prototypes.

    Vervolgens onderzochten we de betrouwbaarheid en vooringenomenheid (bias) van de ML image recognition-dienst van Microsoft Azure.

    Screenshot van het testen van ML image recognition

    Daaruit leerden we al snel dat Machine Learning wordt getraind op ‘normaal’ tegenover afwijkend, en dat de onderliggende trainingsdata bepalend is voor de kwaliteit en betrouwbaarheid van herkenning en classificatie. Begin dus met te vragen:

    1. Welk probleem proberen we op te lossen?
    2. Welke data hebben we daarvoor nodig?
    3. Wie beschikt over die data?

    (Side note: In 2015 maakte Google hun TensorFlow machine learning software open source. Dat konden ze doen omdat niet de software maar de data van strategisch belang is.)

    Dit was deel 1 van mijn notities over UX Design voor Machine Learning en AI. Binnenkort deel 2! 

    Nieuwsgierig geworden?

    Een compactere versie van zijn verhaal vertelde Josh Clark ook op btconf Berlin 2018. Aanrader!

    AI Is The New Design Material - Josh Clark.

    Het belang van AI voor klantcontact

    Op Marketingfacts schreef Arne Keuning onlangs een review van Steven van Belleghem’s nieuwe boek ‘Customers the day after tomorrow'.

    Steven van Belleghem schets 6 stappen van de inzet van kunstmatige intelligentie in de klantrelatie. Deze stappen gaan van de curatie van informatie, via automatisering naar complexe contextuele analyse.
    Een belangrijk punt van Van Belleghem is dat het gaat om het zo goed mogelijk helpen van de klant, de gebruiker, de mens. Maar dat de verwachtingen van die gebruiker gaan exploderen. En dat Artificial Intelligence nodig zal zijn om daar zo goed mogelijk op in te spelen. Want daarmee bied je:
    1. "Faster then real time customer service"
    2. Hyperpersonalisatie
    3. Ongekend gebruiksgemak
    Klanten gaan dit ultieme servicelevel van je verwachten en zijn straks wellicht loyaler aan een gebruiksvriendelijke interface met een compleet gepersonaliseerde realtime ervaring dan aan een merk.
    Daarmee wordt de gebruikservaring ('user experience') de belangrijkste factor voor gebruikers. Dat stelde Ben Thompson ook al in zijn Aggregation Theory:
    [..] this means that the most important factor determining success is the user experience: the best distributors/aggregators/market-makers win by providing the best experience, which earns them the most consumers/users, which attracts the most suppliers, which enhances the user experience in a virtuous cycle.
    Kortom: Van Belleghem gaat snel op mijn boekenplank. Ben benieuwd!