Vorrei commentare l’evento di ieri sera da un punto di vista un po’ diverso dal solito, anche perché sui dispositivi presentati si sapeva già tutto o quasi, e anche i commenti sono i soliti: di fianco agli immacabili entusiasti capaci di esultare anche di fronte all’immancabile “questo è il miglior iPhone che abbiamo mai creato” (credo che nessuno direbbe mai “questo telefono è peggiore di quello che abbiamo lanciato l’anno scorso”) ci sono i consueti, e altrettanto banali (se non ancore più scontati) “Apple non innova più”, “costano troppo”, …
Vorrei quindi liquidare la presentazione dei nuoi dispositivi in tre (o quattro) brevi frasi, per commentare poi un altro aspetto della presentazione che avuto comunque molto risalto.
iPhone XS e XS Max
Tutto come da previsione, anche se non mi aspettavo un salto di potenza così grosso sull’A12 Bionic
iPhone XR
Mi aspettavo un prezzo di partenza ancora più basso, o forse ci speravo, a costo di vederci montato l’A11 anziché l’A12… ma questa scelta, come vedremo, porta con sè altri vantaggi
Apple Watch 4
Al momento non riesco a trovargli alcun difetto, anche se sarebbe bello avere un’autonomia di una settimana.
iPad
Non pervenuto
iPhoneography
Arriviamo così all’pargomento principale sul quale volevo fare qualche considerazione:il comparto fotografico. Apple, su tutti i nuovi iPhone, ha lasciato sostanzialmene invariata l’ottica, migliorando il sensore: un sensore più veloce significa avere la possibilità di diminuire i tempi di scatto o di raccogliere più luce nello stesso tempo, sfruttando la stabilizzazione ottica.
Ma i miglioramenti non sono tutti qui, perché Apple è all’avanguardia nella cosiddetta “fotografia computazionale”, ovvero un sistema di scatto (ormai adottato da molti, per non dire tutti) che non si accontenta di quanto catturato dal sensore, ma elabora tutti i dati con particolari algoritmi per offrire più di quello che potrebbe dare lo scatto semplice.
Il processore ISP progettato da Apple, tramite particolari algoritmi e sfruttando la potenza degli 8 core del Motore Neurale, nel tempo dello scatto individua i volti, elabora le informazioni di profondità, mette insiemealtre informazini ricavate dal sensore, e consente di ricavare un’immagine , se vogliamo “artificiale”, di ciò che sta di fronte alla fotocamera.I risulati mostrati durante l’evento di ieri sono notevoli, in particolare la possibilità di modificare dimanicamente la focale per variare a piacimento la sfocatura dello sfondo, e in linea di principio dovrebbe migliorare anche l’agoritmo che scontorna i volti per individuare il coggetto in primo piano (talvolta, in condizioni di luce non ottimali, sull’iPhone 8 plus sbaglia clamorosamente i contorni della modalità ritratto).
La cosa più bella di tutto ciò è che questi algoritmi funzionano alla grande anche con la fotocamera singola dell’iPhone XR, e probabilmente è per questo che Apple ha voluto montar el’A12 Bionic anche lì.
Ovviamente tutto andrà verificato sul campo, e ci saranno esperti di fotografia più autorevoli di me che diranno quanto il risultato sia buono… nel frattempo, se volete approfondire, la pagina di Apple è questa.