L’intelligenza artificiale nella fotografia non è più fantascienza
Intelligenza artificiale. È stata la parola dell’anno 2022, anche se in realtà ce ne sono due, secondo la FundéuRAE (Fundación del Español Urgente). E i motivi non mancano perché, nell’ultimo anno, AI ha smesso di essere solo una di quelle parole che entrano da un orecchio e finiscono per uscire dall’altro senza ulteriori conseguenze, ed è diventato il nome di qualcosa di sufficientemente rilevante da iniziare a imprimersi nella nostra testa. L’intelligenza artificiale in fotografia non è più fantascienza.
Diciamo che con l’IA è successo qualcosa di simile a quello che è successo con un altro sintagma, il cambiamento climatico, due parole che fanno anch’esse parte del nostro vocabolario da decenni e che, nonostante gli avvertimenti, abbiamo interpretato come qualcosa di estraneo alle nostre vite fino a quando, in piena crisi energetica, arriva l’estate più calda della storia, proprio quella del 2022, e più di qualcuno comincia a prendere coscienza del suo significato e delle conseguenze dell’ignorarlo. Benvenuti, dunque, anche se è già un po’ tardi…
Scarpe da ginnastica Origami. Nat Gutiérrez 2022. Midjourney+Photoshop+Topaz Gigapixel AI.
Contenido
L’intelligenza artificiale nella fotografia
Fino a poco più di un anno fa, parlare di intelligenza artificiale era, per la stragrande maggioranza dei mortali, fantascienza. Non era certo il caso di aziende come OpenAI sviluppatori di DALL-E o ChatGPT che, ne sono certo, sanno da tempo cosa stanno facendo. È stato proprio DALL-E, in particolare la versione DALL-E 2, a scatenare il clamore nell’aprile dello scorso anno con la famosa immagine dell’astronauta a cavallo, generata esclusivamente dall’intelligenza artificiale.
E non è che questa sia stata la prima immagine creata da un’intelligenza artificiale, ma piuttosto che sia stata quella che ha colto più di una persona di sorpresa. Fino ad allora, la generazione di immagini da parte dell’intelligenza artificiale lasciava a desiderare, con risultati a metà strada tra l’astrazione e il surrealismo più bizzarro.
Quell’immagine realistica di un astronauta che cavalca nello spazio in groppa a un cavallo bianco fu il punto di partenza di una vertiginosa evoluzione dell’IA (durata meno di un anno) come generatrice di opere visive che avrebbe raggiunto il suo apice polemico nel settembre 2022, quando un’opera d’arte creata dall’intelligenza artificiale vinse il primo premio in un concorso di belle arti alla Colorado State Fair (USA), provocando scintille tra illustratori e artisti grafici.
Ma facciamo un passo alla volta.
Fino a poco più di un anno fa, parlare di intelligenza artificiale era, per la stragrande maggioranza dei mortali, fantascienza.
Una foto di un astronauta che cavalca un cavallo. Immagine creata con DALL-E 2.
Entriamo nel (mio) background
Ho scoperto la fotografia molto presto, a soli 15 anni, lo stesso anno in cui è caduto il Muro di Berlino, quindi è chiaro che chi scrive queste righe o ha già i capelli bianchi o non ha più bisogno del pettine. E ho messo quella data come punto di partenza perché, sebbene avessi già scattato qualche foto con la compatta Werlisa di mio padre, fu alla fine del 1989 che, dopo aver scattato e sviluppato le mie prime foto “creative” realizzate con una reflex, una Olympus OM-1 presa in prestito, rimasi affascinato dalla tecnica e dal processo e dai risultati, ovviamente ancora molto amatoriali, ovviamente ancora molto amatoriali, ma sufficientemente enigmatici da suscitare in me una certa ossessione che ben presto divenne la conferma della mia vocazione per l’immagine, dapprima per la fotografia, ma col tempo anche per altre discipline audiovisive.
Ho scoperto la fotografia molto presto, a soli 15 anni, lo stesso anno in cui è caduto il Muro di Berlino, quindi è chiaro che chi sta scrivendo queste righe o si sta già pettinando i capelli grigi o non ha più bisogno di un pettine.
I miei primi 10 anni come fotografo sono stati esclusivamente analogici, sia nell’acquisizione che nello sviluppo chimico e nella stampa, e con l’assoluta predominanza della fotografia in bianco e nero, fino alla fine degli anni ’90 quando ho acquistato la mia prima attrezzatura informatica, dopo di che l’analogico ha lasciato il posto ai processi digitali, aprendo le porte ad altre discipline creative come il design, il video e la creazione di progetti di comunicazione web, permettendomi di vivere come professionista multidisciplinare e di creare il mio studio con cui da 15 anni sviluppo ogni tipo di progetto di comunicazione, immagine e pubblicità.
Dal 1991 al 2022 in 2 immagini.
Credo sia chiaro che un percorso come questo, abbastanza sintetizzato, non è possibile senza l’accettazione e l’inclusione dei progressi tecnologici quando si tratta di sviluppare una carriera professionale e creativa nel settore audiovisivo. Un processo che, vi assicuro, non è stato facile, e che spesso ha comportato il dover affrontare alcune “certezze” personali e la vulnerabilità che si prova ogni volta che si deve lasciare quella zona di comfort che si pensa di conoscere e controllare, per dover imparare di nuovo da un’altra prospettiva. Fortunatamente, nel mio caso, la curiosità è sempre stata un’alleata e, accettando che non c’è nulla di male nell’essere più discenti che insegnanti, le incertezze e le controversie finiscono per lasciare il posto all’eccitazione di poter mettere in pratica, sia creativamente che professionalmente, ciò che si scopre in ogni nuovo processo di apprendimento e ricerca.
Il mio primo contatto con un’intelligenza artificiale
All’inizio del 2021, Adobe ha sorpreso tutti con un aggiornamento di Adobe Camera Raw che includeva un nuovo strumento chiamato Super Resolution che ha lasciato più di uno, me compreso, a bocca aperta, e ha significato un colpo di mano da parte di Adobe nell’eterno dibattito sulla risoluzione e sulle dimensioni del sensore da tenere in considerazione quando si acquista una fotocamera. Improvvisamente, la risoluzione di un file RAW non sarebbe più dipesa esclusivamente dalla tecnologia della fotocamera, ma direttamente dalla capacità di un software che poteva aumentare fino a 4 volte la risoluzione dell’immagine originale, con risultati che, sebbene all’inizio mostrassero alcuni difetti che andavano limati (nulla che non potesse essere risolto con altri strumenti di Camera Raw e Photoshop), con il tempo sono migliorati al punto da mettere in scacco la necessità di un Full Frame ben carico di megapixel.
Ebbene, la Super Resolution è stata resa possibile da un’intelligenza artificiale chiamata Enhance Details, creata solo un paio d’anni prima della sua inclusione in Adobe Camera Raw e addestrata su milioni di immagini in modo da poter comprendere gli schemi di interpolazione di un’immagine e correggere con algoritmi i principali errori di pixelatura e color banding quando si interpola un’immagine, cioè si riempiono le informazioni mancanti nell’originale con altre informazioni “inventate” per ottenere una dimensione maggiore dell’originale. Non che l’interpolazione sia una novità per chi lavora in digitale con le immagini, ma è vero che i risultati, soprattutto quando la differenza tra le dimensioni del file originale e quelle del file di output è considerevole, più di una volta hanno lasciato a desiderare, a prescindere dalla post-produzione effettuata. Ma all’improvviso è arrivata un’intelligenza artificiale a risolvere uno dei grandi grattacapi di un fotografo o di un creativo digitale e, per di più, in modo automatizzato e veloce, con risultati che, man mano che l’intelligenza artificiale continua ad allenarsi, si avvicinano sempre più alla perfezione di un originale catturato con un sensore ad altissima risoluzione.
La super risoluzione è stata resa possibile da un’intelligenza artificiale chiamata Enhance Details, creata solo un paio d’anni prima della sua inclusione in Adobe Camera Raw e addestrata su milioni di immagini in modo da poter comprendere i modelli di interpolazione di un’immagine e correggere con algoritmi i principali errori di pixelatura e bande di colore quando si interpola un’immagine …
Strumento di super risoluzione di Adobe Camera Raw.
E dall’assestare il colpo al rompere il tavolo
Ma è stata Adobe la pioniera quando si è trattato di includere l’AI nei suoi processi software? Non proprio, perché alla fine del 2019 una vecchia conoscenza dei plugin esterni integrabili in Photoshop e Lightroom, Topaz Labs, ha sorpreso tutti con lo strumento Sharpen AI, in grado di migliorare la nitidezza di un’immagine applicando una maschera di messa a fuoco, correggendo la messa a fuoco e persino stabilizzando un’immagine traballante, il tutto con l’AI.
Il mio primo incontro con la tecnologia AI sviluppata da Topaz Labs è stato un po’ più tardi ed è avvenuto per un’esigenza tecnica, quella di dover utilizzare il materiale grafico di un cliente per il suo progetto di comunicazione web, gran parte del quale aveva una risoluzione talmente bassa da non raggiungere nemmeno il minimo accettabile per una corretta visualizzazione su schermo. Così, dopo aver cercato di migliorare il materiale disponibile con Photoshop con risultati piuttosto scarsi, ho iniziato a cercare opzioni con altri software fino a quando mi sono imbattuto in Topaz Gigapixel AI e già dalla prima prova, ingrandendo un’immagine di soli 500 pixel di larghezza fino a raggiungere i 1920 pixel ottimali per una testata web a schermo intero, avevo abbastanza motivi per acquistare una confezione di Topaz Gigapixel AI, Avevo abbastanza motivi per acquistare un pacchetto completo di software per il miglioramento delle immagini che comprendeva anche l’ultima versione di Topaz Sharpen AI e, inoltre, Topaz DeNoise AI, con il quale si possono ottenere veri e propri miracoli quando si tratta di ridurre il rumore di un’immagine, a condizione che sia stata ottenuta originariamente con mezzi digitali, dato che, nelle scansioni da pellicole chimiche con molta grana, la cosa non funziona, almeno per ora.
Topaz Gigapixel AI
La differenza tra lo strumento Super Resolution di Adobe e il software Topaz Labs è che, mentre il primo permette di lavorare solo a partire da un file RAW originale della fotocamera, nel caso di Topaz Labs si può partire praticamente da qualsiasi tipo di file immagine, sia in formati compressi come JPG o PNG, o formati finali come TIF, in modo da poter non solo ingrandire e migliorare i file a bassa risoluzione, ma anche applicare a qualsiasi file finale un miglioramento sostanziale della risoluzione e della nitidezza per consentire di ottenere formati più grandi per stampe fotografiche o di stampa. Ed è a questo punto che ho potuto sfruttare al meglio il software Topaz Labs, che mi ha permesso di aumentare la risoluzione di alcuni progetti fotografici personali, come nel caso delle immagini di Minimum Squares, scattate nel corso degli anni con fotocamere di diverso sensore, e sviluppate ed editate, all’epoca, senza applicare alcun tipo di interpolazione, e le cui risoluzioni originali non consentivano, soprattutto con i file più vecchi, stampe su carta fotografica superiori a 25×25 cm senza che la qualità ne risentisse.
Non esagero quindi quando dico che, grazie all’intelligenza artificiale, sono riuscito a rimasterizzare gran parte dell’artwork finale dei miei progetti fotografici senza dover ripartire da zero con i file di acquisizione originali, mantenendo così la finitura digitale di post-produzione di ogni immagine, e ottenere formati di output per la stampa su carta di dimensioni considerevoli, a partire da risoluzioni molto più basse, non solo senza perdere la nitidezza e i dettagli dell’immagine originale, ma anche migliorando questi e altri parametri e dando la possibilità alle mie fotografie e ai miei disegni di essere utilizzati come nuovo materiale in condizioni ottimali per i progetti espositivi.
Non esagero quindi quando dico che, grazie all’intelligenza artificiale, sono riuscito a rimasterizzare gran parte dell’opera finale dei miei progetti fotografici senza dover ripartire da zero con i file di acquisizione originali, mantenendo così la finitura digitale di post-produzione di ogni immagine?
Poi arriva Midjourney e il mondo creativo viene scosso
Fino all’estate dell’anno scorso, la mia esperienza con l’IA non andava oltre l’utilizzo come potente strumento per migliorare tecnicamente i miei processi di lavoro digitali, fino a quando Midjourney ha fatto irruzione nella mia vita e mi si è aperta una nuova strada di ricerca che andava al di là delle questioni tecniche (come è ovvio che sia) e che all’improvviso è diventata un vero e proprio punto di svolta rispetto alla mia precedente concezione di cosa fosse un processo creativo. Non si trattava più di usare l’IA per migliorare le mie immagini, ma di esplorare l’IA come generatore di immagini, cosa che DALL-E stava già facendo, come vi ho detto all’inizio di questo articolo, così come altri progetti di IA generativa come stabile Diffusione ma che, con Midjourney ha assunto una dimensione che, tenendo conto che siamo ancora agli albori di questa tecnologia, se continuerà a evolversi a questa velocità, non sarebbe esagerato dire che ci troveremmo di fronte a un grande cambiamento di paradigma nel rapporto tra uomo e tecnologia.
Progetto Questa persona non esiste. Nat Gutierrez 2022. Midjourney+Photoshop+Topaz Gigapixel AI.
Il funzionamento di Midjourney non è molto diverso da quello di altre IA generative. Si tratta di inserire una descrizione testuale, che chiamiamo prompt, attraverso un programma informatico (bot), in questo caso sotto forma di chat online (non è scaricabile come app), un formato utilizzato anche da un’altra IA che sta mettendo il mondo sottosopra (Chat GPT). Per accedere allo strumento, ancora in versione beta, è necessario registrarsi sul canale ufficiale di Midjourney su Discord e una volta accettato l’invito, si potrà accedere ai cosiddetti canali Newbies, che sono gli unici in cui possono operare i nuovi utenti. Una volta scelto un canale, la prima cosa che salta all’occhio è che tutti i contenuti creati dagli altri utenti sono pubblici, al punto che è possibile non solo creare i propri contenuti da zero, ma anche prendere in prestito il materiale generato da altri, a patto, ovviamente, che questo diritto sia reciproco.
Con la versione gratuita si possono avere alcune ore veloci, che in fondo è ciò a cui si ha diritto una volta sottoscritto l’abbonamento: tempo per generare immagini velocemente. Una volta terminato questo periodo di prova, per avere più tempo, e come se si trattasse del film In Time, bisogna mettere mano al portafogli e acquistare uno dei 3 piani di abbonamento a pagamento che il sistema offre, che vanno da 10 dollari al mese a 60 dollari al mese, quest’ultimo comprensivo della possibilità di lavorare in modalità privata.
Viaggio intermedio
Il segreto per ottenere un buon risultato attraverso Midjourney sta nel modo in cui creiamo i testi descrittivi (prompt), che per ora funzionano bene se sono in inglese, anche se con la crescita dell’IA sarà sicuramente possibile lavorare senza problemi in qualsiasi lingua. Questi prompt non devono solo includere un testo descrittivo, ma possiamo anche aggiungere alcuni caratteri come comandi in cui possiamo specificare questioni visive come l’aspetto, la risoluzione o il tipo di finitura che vogliamo, se più realistica o figurativa, come in una fotografia o un’illustrazione. E da lì, provare, provare e provare finché non si ottengono le immagini desiderate, a patto di avere dei criteri e di non lasciarsi sedurre facilmente dalla spettacolarità dei risultati e dalla velocità con cui si ottengono.
Nel mio caso, raggiungere risultati che mi convincano non è stata una cosa da ieri a oggi, anche se riconosco che il processo di apprendimento, in cui sono ancora coinvolto, è sorprendentemente veloce. D’altra parte, bisogna anche considerare che l’IA ha ancora i suoi limiti e che alcuni aspetti delle immagini che ho generato attraverso Midjourney hanno dovuto passare attraverso altri processi, come Photoshop per risolvere i problemi di generazione di un volto o di una figura umana e, guarda un po’, ho dovuto usare anche Topaz AI per aumentare la nitidezza dell’immagine e la risoluzione del file finale, dato che le immagini generate da Midjourney, per ora, non superano i 1.792 x 1.024 pixel.
Donna origami. Nat Gutiérrez 2022. Midjourney+Photoshop+Topaz Gigapixel AI.
Qual è il problema?
A questo punto è il momento di aprire il melone, o il vaso di Pandora, come dicono i catastrofisti.
Siamo di fronte a una tecnologia che crea in pochi secondi contenuti, in questo caso visivi, a partire da una semplice descrizione testuale, più o meno complessa, così che l’intero processo di cattura o creazione di immagini, così come lo abbiamo conosciuto finora (fotografare, disegnare, progettare…) scompare e tutto ciò che dobbiamo fare è dirigere ed educare questa intelligenza artificiale affinché sia lei a eseguire ciò che abbiamo in mente. Per cercare di spiegarlo in modo più semplice, è come se chiunque ora potesse assumere il ruolo di art director o direttore creativo, come già esiste in campi come la pubblicità o il cinema, ma con la differenza che invece di avere un’intera squadra di professionisti al proprio servizio (nei limiti delle possibilità produttive che ognuno ha), ora è un’unica tecnologia che è in grado di sostituire gran parte dei processi di produzione audiovisiva e di generare un’opera creativa con una sorprendente qualità di esecuzione e in tempi record.
Ciò crea un primo dilemma sulla paternità di queste immagini: chi è il creatore dell’opera? La macchina o chi dirige la macchina? Ed è qui che bisogna attingere al proprio archivio mentale per cercare di trovare equivalenti, pur mantenendo la distanza, tra l’attuale esperienza con l’IA e le precedenti esperienze senza IA.
Questo crea un primo dilemma sulla paternità di tali immagini: chi è il creatore dell’opera? La macchina o chi dirige la macchina?
Nel mio caso, il mio ingresso nel mondo della grafica alla fine degli anni ’90 è avvenuto in seguito all’acquisto del mio primo computer per lavorare con le immagini, che mi ha portato a fare l’impaginatore per alcuni grafici che, dopo anni di creazione di contenuti in modo tradizionale, come i collage, non sapevano come adattarsi all’epoca all’irruzione inarrestabile delle nuove tecnologie. Il mio lavoro per loro consisteva nel generare i contenuti grafici con programmi come Freehand, Corel Draw o Adobe Illustrator e nell’impaginare i lavori seguendo le istruzioni del designer, che semplicemente si sedeva accanto a me e mi diceva come disporre ogni elemento, colore, forma, ecc. sullo schermo fino a raggiungere un risultato finale soddisfacente… Detto questo, secondo lei chi si firma come autore dei lavori o dei progetti finali, il designer o il layout artist?
Non cerco di dare risposte perché mi trovo a doverle cercare io stesso nel corso di questo processo di ricerca, ma credo che, nel caso della paternità di un’immagine generata da un’intelligenza artificiale, la questione sia solo la punta dell’iceberg di ciò che sta davvero sotto la superficie. Non si tratta tanto di un dilemma sulla paternità, quanto piuttosto del disagio che indubbiamente viene prodotto dal pensiero che una sola macchina possa riprodurre i processi per i quali, finora, era necessario un team umano, più o meno numeroso, per poterli eseguire secondo le direttive di un regista. Di cosa stiamo parlando, dunque, di autorialità o di ruoli professionali e, di conseguenza, di lavori che potrebbero essere cancellati dall’irruzione di questa tecnologia?
Rinascita. Nat Gutierrez 2022. Midjourney+Photoshop+Topaz Gigapixel AI.
D’altra parte, c’è la questione legale che riguarda il funzionamento delle IA e il modo in cui si alimentano quando si tratta di generare contenuti, e qui, come per gli algoritmi creati dalle grandi aziende tecnologiche, le cose sono più opache. Perché non possiamo ignorare il fatto che le IA generative, quando creano contenuti, si nutrono e imparano da tutto il materiale audiovisivo caricato su Internet, che sia soggetto o meno a diritti d’autore o di proprietà intellettuale. Ma naturalmente, se guardiamo al funzionamento di un programma di intelligenza artificiale come Midjourney, Dall-E o Stable Difussion, per quanto possiamo dire, ciò che fanno queste applicazioni non è molto diverso da ciò che potrebbe fare un barman quando mette un gruppo di ingredienti originali in uno shaker per cocktail e li “agita” a una certa velocità in modo che si mescolino per creare un intruglio che, indipendentemente dal fatto che possa essere usato o meno per creare un nuovo contenuto, può essere usato per creare un nuovo tipo di contenuto, indipendentemente dal fatto che in esso si possano percepire i sapori e gli aromi delle materie prime che lo compongono, alla fine del processo si tratta comunque di una bevanda con una propria entità, cosa che, trasferita alla legalità della proprietà intellettuale delle immagini, è già contemplata quando si parla di opera originale e opera derivata, non senza alcune controversie.
Perché non possiamo ignorare il fatto che le IA generative, quando creano contenuti, si nutrono e imparano da tutto il materiale audiovisivo caricato su Internet, indipendentemente dal fatto che sia soggetto o meno a diritti d’autore o di proprietà intellettuale.
E se un giorno fossero le stesse tecnologie alla base delle IA a rivendicare nei loro termini d’uso la proprietà intellettuale delle immagini generate? Per il momento, Midjourney, Dall-E e Stable Difussion non includono questo aspetto nelle loro condizioni d’uso. Inoltre, secondo questi termini, il presunto copyright dei contenuti generati attraverso i loro programmi di intelligenza artificiale è, per il momento, di proprietà di chi (e non di “cosa”) genera tali contenuti. Ma questo non ha impedito che negli Stati Uniti nascessero le prime cause contro queste tecnologie da parte di illustratori e creatori artistici per violazione del diritto d’autore, cosa che per ora è difficile sapere fino a che punto si spingerà in un momento in cui la legislazione mondiale, sicuramente anch’essa presa in contropiede, dovrà evolversi per adattarsi a ciò che deve ancora venire rispetto all’uso dell’IA, e non solo per quanto riguarda il settore creativo audiovisivo.
Zuccherino. Nat Gutierrez 2022. Midjourney+Photoshop+Topaz Gigapixel AI.
Conclusioni?
Ebbene, ora, per quanto mi riguarda, ce ne sono poche. Sono più le domande che le risposte che dovranno essere risolte nel breve e medio termine, perché quello che mi sembra chiaro è che l’intelligenza artificiale, in un periodo di tempo relativamente breve (meno di 5 anni), sarà una parte indissolubile della nostra esistenza, tecnologica o meno, allo stesso modo in cui, a suo tempo, accadde con l’irruzione di Internet e, successivamente, la nascita dei social network e l’indiscutibile impatto che tutto questo ha avuto sull’umanità, sia nel bene che nel male.
Come ho detto all’inizio di questo post, non mi sono mai chiuso ai progressi tecnologici. Senza di essi, non sarei in grado di fare nulla di ciò che faccio oggi, sia professionalmente che creativamente. Ma questo non significa che accolgo ogni progresso a braccia aperte, come se fosse nulla.
Non ho mai pensato che la tecnologia sia un problema. Al contrario. Nessuno può negare che i progressi tecnologici abbiano contribuito in modo determinante a migliorare la nostra vita e, nel caso dell’intelligenza artificiale, non ho dubbi che essa comporterà un grande balzo in avanti in questo senso. Dopo tutto, l’automazione dei processi dovrebbe aiutare i creatori a dedicare il loro tempo alla creazione e a sviluppare i loro progetti creativi in modo fattibile, accessibile e agile.
Alla fine, per me, si tratta di provare le cose, di indagare e di valutare con la mia esperienza sia i benefici che i problemi che ogni nuova tecnologia può portare, cercando di trovare un equilibrio tra le convinzioni personali e l’accettazione dell’inevitabile.
Ma il problema è che ogni grande progresso tecnologico comporta una serie di conseguenze non sempre positive. È il pedaggio che il progresso ci fa pagare (nulla è gratis) per poter godere (o meno) di questi progressi e che, forse, ha più a che fare con l’uso che gli esseri umani fanno della tecnologia, su scala più o meno ampia e con un paradosso difficile da comprendere nell’era dell’accesso libero e gratuito all’informazione e alla conoscenza via Internet: Il fatto che il ritmo e la velocità con cui avanza la tecnologia spesso non si riflettono nel ritmo e nella velocità con cui avanzano le teste pensanti di troppe persone, e non si può fare a meno di chiedersi se gli esseri umani, ancora così primitivi in tanti aspetti, siano davvero pronti a comprendere e gestire tutto questo potenziale tecnologico con buon senso e occhio critico.
Alla fine, per me, si tratta di provare le cose, di indagare e di valutare con la mia esperienza sia i benefici che i problemi che ogni nuova tecnologia può portare, cercando di trovare un equilibrio tra le convinzioni personali e l’accettazione dell’inevitabile. E l’intelligenza artificiale è già inevitabile. È un altro treno ad alta velocità (molto alta in questo caso), sul quale bisogna decidere se saltare, lasciarlo passare o evitare di essere investiti.
E sono salito su alcuni di questi “treni” nella mia vita.
Continuerà?