Un sistema di intelligenza artificiale sviluppato dalla Sony ha prevalso su quattro giocatori di livello mondiale di Gran Turismo Sport, parte dei quali dei quali aveva vinto il campionato del mondo tenutosi a Tokyo nel 2021.

Gran Turismo Sophy, questo il nome del sofware intelligente, ha adottato un approccio chiamato deep reinforcement learning che gli ha premesso di acquisire una capacità di guida del tutto paragonabile a quella di un pilota umano, quantomeno sui tracciati virtuali dei videogiochi.
All’incontro, tenutosi nella capitale giapponese, hanno partecipato quattro auto controllate dall’intelligenza artificiale contro quattro giocatori in gare ambientate su tre circuiti, incluso il tracciato della 24 Ore di Le Mans. Il miglior tempo di arrivo lungo questa pista è stato di 193.080 s, circa 1.8 secondi sotto il minimo di 194.888 s ottenuto da uno dei partecipanti umani.

Secondo i commenti di uno dei giocatori, il software ha utilizzato metodi innovativi per ottenere una velocità media maggiore, aprendo uno spiraglio sul trasferimento alla guida su strade aperte al pubblico delle complesse manovre al limite richieste in ambito competitivo.
Sony intende implementare questo know how tramite la società di costruzione di auto elettriche che sarà istituita a breve e ha intenzione di estendere questa tecnologia a droni e robot progettati per lavorare insieme agli esseri umani.

Queste tecniche richiedono strategie complicate, processo decisionale in tempo reale e capacità avanzate di controllo dell’auto allo stesso tempo; proprio ciò che in precedenza rendeva difficile per i sistemi di intelligenza artificiale avere la meglio sugli esseri umani.
Ora il sorpasso è formalmente avvenuto, ma c’è ancora spazio per migliorare le capacità decisionali strategiche della IA, che in determinate condizioni mostrano ancora concreti limiti, come nel mentenimento di una traiettoria priva di rischi dopo i sorpassi in velocità su rettilineo.
E il tutto, teniamolo ben presente, per ora soltanto su tracciati virtuali.