Cooperazione e compromesso nell’intelligenza artificiale

Un nuovo studio condotto da un team internazionale di scienziati informatici ha messo a punto un nuovo tipo di algoritmo di gioco – uno che può giocare a giochi che si basano su tratti come la cooperazione e il compromesso – e i ricercatori hanno scoperto che le macchine possono già distribuire queste caratteristiche meglio degli esseri umani.

Scacchi e Poker sono tutti giochi  in cui due o più giocatori sono in conflitto tra loro. Giochi come questi offrono chiare pietre miliari per misurare il progresso dello sviluppo dell’ IA, permettendo agli esseri umani di essere confrontati contro i computer con un vincitore tangibile. Ma molti scenari del mondo reale in cui l’AI alla fine opererà richiedono relazioni più complesse e cooperative a lungo termine tra gli esseri umani e le macchine.

“L’ obiettivo finale è quello di capire la matematica dietro la cooperazione con le persone e ciò che attribuisce l’ intelligenza artificiale ha bisogno di sviluppare le abilità sociali”, dice autore principale sul nuovo studio Jacob Crandall. “L’ AI deve essere in grado di rispondere a noi e articolare ciò che sta facendo. Deve essere in grado di interagire con gli altri”.

Il team ha creato un algoritmo chiamato S# e ne ha testato le prestazioni attraverso una varietà di giochi a due giocatori, sia in interazioni macchina-macchina, uomo-macchina o umano-umano. I giochi selezionati, tra cui Dilemma del prigioniero e Shapley’s Game, hanno richiesto diversi livelli di cooperazione o di compromesso per un giocatore per ottenere un rendimento elevato. I risultati sono stati affascinanti, mostrando che nella maggior parte dei casi la macchina superava gli esseri umani nei giochi.

“Due esseri umani, se fossero onesti l’ uno con l’ altro e leali, avrebbero fatto così come due macchine”, dice Crandall. “circa la metà degli esseri umani mentiva ad un certo punto. Quindi, essenzialmente, questo particolare algoritmo sta imparando che le caratteristiche morali sono buone. È programmato per non mentire, e impara anche a mantenere la cooperazione una volta che emerge”.

Una tecnica interessante incorporata nell’ algoritmo era la capacità della macchina di impegnarsi in quello che i ricercatori chiamavano “parlare a buon mercato”. Si trattava di frasi che la macchina dispiegò sia in risposta ad un gesto cooperativo (“Dolce… Ci stiamo arricchendo!”), sia come reazione ad un altro partecipante come mentire o imbrogliare (“La pagherete!”). Quando le macchine erano in gradi di “parlare a buon mercato”, i giocatori umani erano generalmente in grado di scegliere che stavano giocando con una macchina, e nella maggior parte dei casi i commenti hanno raddoppiato la quantità di cooperazione.

I ricercatori suggeriscono che questi risultati potrebbero gettare le basi per una migliore autonomia delle macchine in futuro, in quanto tecnologie come le auto senza conducente richiedono che le macchine interagiscano sia con gli esseri umani che con altre macchine che spesso non condividono gli stessi obiettivi.

“Nella società, le relazioni si rompono continuamente”, dice Crandall. “Le persone che sono state amici per anni, all’ improvviso, diventano nemici. Poiché la macchina è spesso in realtà migliore di noi per raggiungere questi compromessi, può potenzialmente insegnarci come farlo meglio“.

Hey there!

Forgot password?

Forgot your password?

Enter your account data and we will send you a link to reset your password.

Your password reset link appears to be invalid or expired.

Close
of

    Processing files…