L’azienda di Cupertino ha completamente ridisegnato la fotocamera frontale con un nuovo sensore quadrato, stabilizzazione automatica e un’intelligenza artificiale che anticipa le intenzioni dell’utente.
In un’intervista a Business World, Jon McCormack e Megan Nash spiegano come hardware, software e silicio si fondono per risolvere i problemi quotidiani di chi scatta.
iPhone 17, così è nata la fotocamera Center Stage

Con la nuova famiglia iPhone 17, presentata a settembre, Apple non ha semplicemente migliorato la fotocamera frontale: l’ha reinventata dalle fondamenta.
Addio a contorsioni del polso, selfie stick e tentativi di inquadrare tutti gli amici in una sola foto. La nuova fotocamera Center Stage trasforma il selfie in un’esperienza intelligente, unendo ottica, design del chip e uno studio approfondito del comportamento umano.
In una conversazione con il portale indiano, Jon McCormack, Vicepresidente dell’Ingegneria Software per Fotocamera e Foto, e Megan Nash, Product Manager di iPhone, hanno svelato la filosofia dietro questa rivoluzione.
McCormack, un veterano di Amazon e HP con un’aria da scienziato, guida la transizione di Apple dall’ottica pura al “calcolo computazionale incentrato sull’uomo“. Nash è il volto che ha presentato la novità sul palco, traducendo le complessità hardware in benefici tangibili.
Il punto di partenza non è stata una corsa alle specifiche, ma una “correzione comportamentale“.
“Abbiamo osservato i nostri utenti“, spiega McCormack. “Vediamo selfie stick, persone che passano alla fotocamera ultra-grandangolare da 0,5x, che ruotano l’iPhone in orizzontale o lo passano alla persona più alta del gruppo per ottenere la massima estensione del braccio“.
La domanda che si è posto il team era semplice: “E se la fotocamera potesse semplicemente capire cosa stai cercando di inquadrare e fare le regolazioni per te?“.
La portata del fenomeno è impressionante. “A livello globale, lo scorso anno sono stati scattati circa 500 miliardi di selfie con l’iPhone“, rivela McCormack. Si tratta di quasi 1,4 miliardi di selfie al giorno, un chiaro segnale che questa non è una nicchia, ma l’uso principale della fotocamera frontale per milioni di persone.
L’hardware al servizio dell’esperienza utente
La soluzione di Apple è un sistema integrato. Al centro c’è un nuovo sensore frontale più grande e, per la prima volta, di formato quadrato. “Normalmente, gli smartphone usano un sensore in formato 4:3“, afferma Megan Nash. “Abbiamo deciso di rendere il sensore quadrato per abilitare esperienze uniche nel settore. Questo significa che puoi tenere l’iPhone in verticale e comunque scattare foto e video in orizzontale. Per la prima volta, abbiamo svincolato l’orientamento del telefono dal rapporto d’aspetto dell’immagine“.
Il sensore, quasi raddoppiato in dimensioni, offre scatti fino a 18 megapixel, garantendo un’elevata qualità anche dopo il ritaglio digitale.
Questa innovazione hardware è resa possibile dal SoC proprietario Apple. “Il chip A19 Pro è stato progettato anni fa pensando a questa nuova fotocamera“, continua Nash. “Utilizza un’interfaccia ad alta velocità per trasferire in modo efficiente i dati dal sensore al chip, un aspetto cruciale per esperienze come la Doppia Acquisizione (Dual Capture), che utilizza contemporaneamente le fotocamere anteriore e posteriore“.
Nei modelli Pro, un nuovo sistema di raffreddamento a camera di vapore assicura prestazioni sostenute fino al 40% superiori, eliminando il surriscaldamento durante le lunghe sessioni di registrazione.
L’iPhone capisce le intenzioni dell’utente
Il risultato è un’esperienza utente trasformata. La stabilizzazione, ereditata dalla Modalità Azione, è ora attiva di default su ogni video selfie. “L’obiettivo è usare l’ampia area del sensore per ottenere una stabilità incredibile“, dice McCormack. “Puoi camminare, andare in bicicletta o correre, sapendo che il tuo video sarà perfetto, senza nemmeno dover attivare un’impostazione“.
Ma l’intelligenza va oltre la stabilità, il sistema riconosce le “intenzioni”. Se inquadri un’altra persona, la fotocamera esegue automaticamente uno zoom per includerla perfettamente. Se nel gruppo ci sono tre o più persone, ruota l’inquadratura in orizzontale, anche se il telefono è tenuto in verticale.
Questo migliora anche l’ergonomia e il contatto visivo: tenendo il telefono in verticale, la presa è più sicura e lo sguardo punta naturalmente verso l’obiettivo, eliminando il problema dello sguardo “spostato” dei partecipanti nel tipico dei selfie di gruppo in orizzontale.
Anche la funzione Dual Capture, amata dai creator, diventa più potente. Ora è possibile registrare contemporaneamente dalla fotocamera posteriore e da quella anteriore, con una stabilizzazione fluida su entrambe.
“Abbiamo creato una versione più rilassata dell’inquadratura del volto per bilanciare la stabilità dello sfondo con la centralità del soggetto“, spiega McCormack. L’audio viene gestito in modo intelligente, isolando e mixando le tracce per dare priorità a chi parla.
Se la concorrenza Android ha introdotto funzioni simili come modalità separate, la scommessa di Apple è di renderle il comportamento di base della fotocamera.
La composizione, la stabilizzazione e l’orientamento non sono più compiti dell’utente, ma della fotocamera stessa. “L’obiettivo è rendere la fotocamera invisibile“, conclude McCormack. “Nessuna impostazione, nessuna distrazione. Tira fuori l’iPhone e lascia che la nuova fotocamera Center Stage faccia tutto il lavoro per te“.
Con iPhone 17, l’intento professionale non è più riservato alla fotocamera posteriore, ma diventa la base di ogni singolo selfie.








