L’AI non è solo ChatGPT: alcune funzioni dell’iPhone che sfruttano il machine learning

di Arianna Caputi di 5E indirizzo Liceo Scienze Applicate

Spesso quando si pensa al termine “intelligenza artificiale” (abbreviata IA oppure AI in inglese) la prima parola che viene in mente è “ChatGPT”, l’ormai ben noto chatbot introdotto da OpenAI nel 2022, e più in generale solamente programmi di AI generativa. L’AI, però, è molto più di questo ed esiste tramite una sua componente fondamentale, il machine learning (abbreviato ML, definita come “algoritmi in grado di apprendere i modelli dei dati di addestramento e operarci accuratamente senza istruzioni esplicite e codificate e un input umano”), da ben più tempo di quello che ci si aspetterebbe. Di conseguenza, all’interno dei nostri iPhone, e in generale qualsiasi dispositivo tecnologico, usiamo l’intelligenza artificiale da anni, perfino decenni, senza accorgercene.

Il primissimo esempio in assoluto dell’utilizzo del machine learning all’interno di iOS risale al 2007 e ad iPhoneOS 1.0: si tratta del correttore automatico. Il primo iPhone della storia, l’iPhone 2G, fin dalla prima versione del suo sistema operativo impiega già il machine learning! Chiaramente si tratta di una versione rudimentale dal funzionamento ben meno sofisticato di quello attuale (confronto del testo scritto dall’utente con un dizionario interno e utilizzo di semplici modelli predittivi), ma si tratta comunque di un primo passo verso una tecnologia al giorno d’oggi rilevantissima. Con iOS 17 annunciato a giugno 2023 è stato introdotto un nuovo meccanismo chiamato “transformer language model” basato sul machine learning avanzato in grado di adattare il correttore automatico allo stile di scrittura totalmente personale di ciascun utente imparando abbreviazioni, termini frequentemente usati ecc. in modo da non identificarli come errori da correggere (e poi successivamente da modificare nuovamente) bensì termini veri e propri. In più è anche in grado di prevedere il proseguo della frase che si sta scrivendo direttamente sul documento, senza doverla necessariamente scrivere manualmente per intero (es. nomi di serie TV, titoli di film e tanto altro).

A dare una grande svolta alle capacità del machine learning su iPhone è stato un componente contenuto all’interno del processore A11 Bionic (più precisamente nell’ISP) dedicato interamente ad esso: si tratta del Neural Engine, un piccolo processore dual-core in grado di analizzare grandi quantità di dati e consentire il funzionamento del FaceID, il riconoscimento facciale utilizzato per sbloccare il telefono e autorizzare diverse operazioni sensibili, tra cui i pagamenti. Con il lancio sul mercato dell’iPhone X, primo iPhone ad implementare il FaceID, diversi utenti si sono domandati se fosse realmente un sistema di sblocco sicuro perché tutti gli altri smartphone dotati di riconoscimento facciale erano aggirabili da una maschera o, nel caso di sistemi meno elaborati, perfino da una foto; un altro forte dubbio restava la capacità o meno di riconoscere il volto al buio, con gli occhiali o dopo un taglio drastico di barba o capelli.

È proprio qui che entra in gioco il Neural Engine coadiuvato dal sistema di fotocamere TrueDepth: i tre sensori contenuti all’interno del sistema formano in tre step (illuminare l’ambiente con gli infrarossi [flood illuminator], proiettare 30000 puntini infrarossi per creare un pattern unico [proiettore di punti] e catturare il pattern appena creato [fotocamera ad infrarossi]) una mappa tridimensionale del volto e inviano i dati al Neural Engine che li confronta con quelli inseriti nel processo di configurazione del telefono, adattandosi intelligentemente ai cambiamenti nel volto, anche improvvisi.

Dal 2017, dall’A11 Bionic e dall’iPhone X sono stati fatti grandissimi passi in avanti: il Neural Engine contenuto nel processore A19 Pro ha ben 14 core in più di quello dell’A11 Bionic ed è in grado di fornire altissime prestazioni per compiti AI complessi, al livello di quelle possibili su un MacBook Pro! Il FaceID è nettamente più veloce e a partire dall’iPhone 13 si può sbloccare il telefono in qualsiasi angolazione, non più solamente in verticale.

L’AI è integrata da anni anche nel componente che, di anno in anno, occupa sempre più posto sul retro dell’iPhone: si tratta del setup fotocamere. Le foto meravigliose che abbiamo nella galleria e a cui mettiamo like sui social media sono il risultato di un connubio tra hardware che spinge sempre di più il limite del possibile nello spazio ridotto che offre uno smartphone e software che mette la ciliegina sulla torta. Sono due le parole chiave del grande lavoro software che c’è dietro ogni scatto: fotografia computazionale. La fotografia computazionale è un insieme di tecniche elaborative che usano la computazione digitale al posto di processi ottici, ossia sfruttando esclusivamente le lenti degli obiettivi. Nel corso degli anni le funzioni che sfruttano la fotografia computazionale sono cresciute sempre di più e hanno elevato considerevolmente, assieme agli sviluppi hardware, le capacità del setup fotocamere degli iPhone.
Il primo esempio di fotografia computazionale sono le foto in HDR (High Dynamic Range) supportate a partire dall’iPhone 4 che permettono di mantenere il dettaglio in condizioni di luce molto intensa, il machine learning però entra in gioco diversi anni dopo con l’introduzione nel 2018 dello Smart HDR con gli iPhone XS e XR: il funzionamento chiave è lo stesso del precedente meccanismo, ovvero lo scatto in contemporanea di più immagini ad esposizione diversa e successiva unificazione mantenendo solo le parti “migliori” di ogni immagine, a cambiare è il modo in cui questi scatti vengono uniti. In precedenza ci si basava su rigidi algoritmi e una limitatissima quantità di foto scattate in contemporanea, con lo Smart HDR il Neural Engine analizza gli scatti simultanei caso per caso ottimizzando i “pezzi di immagine” da tenere in base al soggetto raffigurato. Le versioni più recenti dello Smart HDR sono anche in grado di riconoscere la presenza di più soggetti e funzionano con tutte le diverse modalità di scatto disponibili, ad esempio il ritratto e le foto live.

Con l’iPhone 11 lo Smart HDR viene affiancato da un suo equivalente ancora più aggiornato utile per i casi di luce medio-bassa, non più semplicemente “intelligente”, ma “profondo”: si tratta del Deep Fusion. Quando si scatta una foto l’iPhone riconosce la quantità di luce disponibile e cattura 9 foto, 4 ad esposizione breve prima ancora di aver premuto il tasto per scattare e 5 (4 ad esposizione breve e una ad esposizione lunga) immediatamente dopo averlo fatto; il Neural Engine analizza questi 9 scatti e li combina pixel per pixel, ottimizzando con estrema precisione ogni texture, dettaglio e tonalità. Nel 2022 con l’iPhone 14 il Deep Fusion migliora ancora, evolvendo nel Photonic Engine: il funzionamento è sempre lo stesso del Deep Fusion, a cambiare è quando l’elaborazione viene fatta (il Photonic Engine lavora sui file RAW, il Deep Fusion invece su file già JPG) e l’impiego di nuovi algoritmi ML in grado di rimuovere il rumore senza appiattire le texture.

Quando si passa a condizioni di luce ancora più scarsa viene in aiuto la modalità notte, anche questa introdotta nell’iPhone 11: la tecnica è la stessa delle foto HDR, ciò che cambia è il maggiore tempo per cui l’otturatore resta aperto, in modo da recepire più luce possibile. Un’altra funzione molto amata è la modalità ritratto introdotta nel 2016 con l’iPhone 7 Plus, una serie di effetti bokeh che trasformano il setup fotocamere in uno studio fotografico in miniatura. Questa funzione era disponibile solamente sull’iPhone 7 Plus e non sul 7 standard perché la presenza della seconda lente era necessaria per ottenere l’effetto sfocato e sarà così anche l’anno successivo, con la funzione supportata esclusivamente dall’iPhone 8 Plus e dall’iPhone X. Questo cambia nel 2018: l’iPhone XR è il primo iPhone a supportare la modalità ritratto seppur disponendo di una singola lente, passando il compito precedentemente svolto dalla seconda fotocamera al machine learning.

Il Neural Engine analizza la scena creando una mappa approssimata della profondità di campo, identifica la presenza di un soggetto in primo piano e simula a livello software l’effetto bokeh separando il soggetto dallo sfondo, sfocando quest’ultimo. Naturalmente questa tecnologia ha dei limiti, infatti funziona principalmente con le persone o animali: si può comunque avere un effetto bokeh sugli oggetti ma solamente in post produzione e in maniera ancora meno precisa.

Nel 2021 con l’iPhone 13 Pro agli appassionati di fotografia mobile si apre ancora un’altra possibilità con l’introduzione della modalità macro, in grado di poter scattare dei close-up mozzafiato a qualsiasi soggetto si voglia. Questo viene reso possibile non aggiungendo un’altra lente com’è stato 5 anni prima per la modalità ritratto, bensì sfruttando la lente ultragrandangolare, il meccanismo Super Resolution basato sul machine learning e il Neural Engine che elabora l’immagine per renderla il più definita possibile senza lasciare una patina di artificiosità.

iOS è un sistema complesso nonostante la sua rinomata semplicità di utilizzo e le funzioni che sfruttano il machine learning sono ben più di queste. Certamente con le future versioni del sistema operativo ce ne saranno ancora di più, in particolare legate ad Apple Intelligence, una serie di strumenti AI generativi e non introdotti con iOS 18 nel 2024. Spesso si tende a commettere l’errore di credere che, prima di questa data, AI ed iOS fossero due binari completamente paralleli tra di loro senza alcun tipo di integrazione, ma andando oltre le apparenze e andando ad esplorare i meccanismi di funzioni apparentemente “banali” ci si rende conto che non è assolutamente così e che l’AI ed iOS sono “cresciuti insieme”. È innegabile che Apple Intelligence abbia ancora tanta strada da fare e tante implementazioni da migliorare, ma tornare indietro e ricordare cosa l’AI ha permesso di fare ben prima di 18 mesi fa è un forte indicatore di quanto Apple creda nello sviluppo dell’AI senza focalizzarsi esclusivamente sulla AI generativa come “next big thing” e il risultato è un’infinità di miglioramenti dell’esperienza d’uso per gli utenti.

Un pensiero riguardo “L’AI non è solo ChatGPT: alcune funzioni dell’iPhone che sfruttano il machine learning

  1. Ottimo pezzo! Analisi davvero interessante su come l’intelligenza artificiale stia diventando parte integrante dei nostri dispositivi. È fondamentale che noi studenti comprendiamo queste tecnologie, e articoli così aiutano a farlo in modo semplice e preciso. Bravi!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *