e compra una compatta decente... almeno parti da un buon punto... o meglio ancora una reflex da non spendere tanto magari usata, costa come una bella compatta nuova ma ci puoi giocare il doppio...
...e hai il doppio della qualità delle immagini, paragonando la migliore delle compatte con la più ridicola delle reflex.
Salve a tutti. Vorrei intervenire per tornare al quesito iniziale di questo thread, ovvero sull'"etica" della post-produzione delle foto.
Io penso che la postproduzione sia essenziale. Essendo la fotografia digitale ancora acerba (siamo ancora nel suo primo decennio) ed essendo enormi limiti delle tecnologie alla base dei sensori si può dire che siamo costretti a lavorare in postproduzione.
Basta ragionare sul fatto che l'immagine subisce la postproduzione più importante già prima di essere salvata nella memoria della macchina fotografica.
Mi spiego: tranne le macchine fotografiche SIGMA, legate a un mercato di pochi appassionati per via dei grossi limiti prestazionali dei particolari sensori che montano, tutte le altre fotocamere montano sensori CCD o CMOS.
Questi, ognuno con i suoi pregi e difetti hanno come principale ed enorme limite, la disposizione dei pixel sulla superficie del sensore.
Mentre le pellicole analogiche (e le macchine SIGMA) hanno gli elementi sensibili ai tre colori primari sovrapposti, i sensori CMOS e CCD hanno i tre colori primari disposti su una griglia, in modo simile a quello che potete vedere ad occhio nudo, guardando un monitor o un televisore molto da vicino.
Questo probabilmente lo sapevate già, ma vale la pena chiedersi come si presenterebbe l'immagine presa direttamente dal sensore, e in che modo si trasforma in quello che poi noi ritroviamo stimato nella memoria della fotocamera.
La griglia di pixel del sensore ha generalmente metà dei pixel di colore verde, la restante metà si divide equamente tra il rosso e il blu. Questa è la regola generale, al di là delle scelte di uno specifico costruttore.
Un sensore di 10Mpx non è formato da 10Mpx verdi, 10Mpx blu e 10Mpx rossi, ma vanno sommati i colori primari.
Avremo quindi in linea di massima 5Mpx verdi, 2,5 Mpx di pixel rossi e altrettanti blu.
L'immagine finita, che noi andremo a guardare, è composta da 10 milioni di punti. Questo significa che ogni punto dell'immagine corrisponde a un punto del sensore. Ma mentre ogni singolo punto dell'immagine finita ha un colore che è la somma dei tre colori primari, il singolo pixel del sensore ne raccoglie solo uno dei tre. E la questione è tutta qui: in che modo un pixel monocromatico, capace di raccogliere una ristretta gamma di colori, si trasforma in RGB?
La risposta è semplice: all'interno della macchina fotografica, un processore debitamente istruito dal firmware, inserisce i colori che semplicemente in quel punto della foto non ci sono (in un pixel verde, si preoccuperà di inventare i valori di blu e rosso che ritiene appropriati).
È un passaggio molto complesso e la qualità del firmware della macchina fotografica in questo passaggio è altrettanto importante se non di più della qualità di cattura del sensore.
I firmware negli ultimi 10 anni si sono evoluti enormemente e ora le foto risultano molto più naturali e morbide rispetto a quelle catturate con macchine, anche professionali, di un decennio fa, ma la qualità dell'immagine finale non sarà mai paragonabile a un sistema di cattura con i colori primari sovrapposti, come le pellicole analogiche.
I problemi, nonostante i progressi fatti dall'elaborazione on board, ancora oggi sono ben visibili anche ad occhi poco esperti. Quando si fotografano paesaggi, o comunque grandi spazi, l'impatto cromatico dell'aria (specialmente nelle giornate umide) può essere tanto forte da rovinare la foto (mai capitato di ritrovarvi con foto di paesaggi stranamente velati di azzurro?).
I sensori delle reflex riescono (lenti permettendo) ad avere una mappa molto dettagliata dei più piccoli particolari delle foto, analizzando il livello di luminosità di ogni pixel come fosse un'immagine in bianco e nero. Ma cosa succede quando si ha l'immagine composta da un gran numero di particolari, tutti dello stesso colore che va ad influire quasi totalmente su uno solo dei colori primari, come ad esempio la foto di un prato verde?
Succede che la post produzione
on board tende ad andare in crisi, avendo informazioni accurate solo da un ristretto numero di pixel, e l'immagine perde di definizione e nitidezza.
Problemi si hanno anche con trame molto fitte, che se nello scatto copiano più o meno la disposizione dei pixel, saranno interpretati come una superficie liscia di diverso colore. Questo si può incontrare ad esempio quando si fotografano superfici verniciate con colori metallizzati o metallescenti.
Concludo.
Tutta questa spiegazione, serve a mettere in mostra due concetti:
per prima cosa l'immagine che tirate fuori dalla vostra macchina fotografica è già stata rielaborata molto di più di quanto probabilmente farete mai voi, quindi non ha senso parlare di foto "naturale".
In secondo luogo, i sensori qualsiasi essi siano, hanno una tecnologia di cattura molto diversa da quella dell'occhio umano, con vantaggi e limiti che non permettono di paragonare il risultato di una fotocamera a quello che hanno visto i nostri occhi, quindi si può postprodurre anche per cercare di avere uno scatto che somigli il più possibile alle immagini che abbiamo impresse nei nostri ricordi, quindi in un certo senso per naturalizzare la foto.
Chiudo facendo i complimenti agli autori dei due scatti visti in questa discussione, entrambi molto belli!
Spero di essere stato utile alla discussione!
Ciao!