PROPOSTA DI MAPPATURA SPETTROSCOPICA DEI SITI ASTRONOMICI

di Stefano Rosoni – Università
degli Studi di Ancona
Circolo Astronomico Dorico “Paolo Andrenelli” – c.p. 70 – Ancona
stefano@ascu.unian.it


SOMMARIO

Oggi è sempre più
necessario conoscere e controllare l’inquinamento luminoso.

In questo lavoro
viene proposto un nuovo metodo di osservazione e misura del fenomeno, nel tentativo di
quantificarlo esattamente per consentire poi agli addetti ai lavori, agli studiosi ed ai
tecnici di valutare caso per caso e di confrontare il grado di inquinamento di ogni sito
partendo dall’esame della sua mappa spettroscopica.

Lo scopo
dell’intervento è proporre e sottoporre all’attenzione della comunità
scientifica questo nuovo metodo, come prima ipotesi nella ricerca del miglior protocollo
da seguire.

Basandosi
sull’uso di strumenti ottici piuttosto semplici, come lo spettrografo ed il
microdensitometro, il metodo prevede la conoscenza delle caratteristiche di risposta del
rivelatore utilizzato, ed introduce una serie di criteri organizzativi per la raccolta
più razionale delle misure, anche in funzione della migliore economia e praticità della
procedura.

Per consentire la
confrontabilità con misure di altri ricercatori il metodo qui proposto cerca di
raggiungere la calibrazione assoluta degli strumenti introducendo per essi un nuovo
criterio di taratura, che consenta di effettuare la raccolta dei campioni con lo
spettrografo in una sola passata, evitando ogni volta la utopistica “misura del solo
fondo cielo” che andrebbe poi sottratto, sempre ogni volta, alla misura globale
presa.

IL SISTEMA DI RIFERIMENTO

Per realizzare la mappa
spettroscopica del cielo di un sito, nell’ambito della finestra ottica, magari estesa
alle vicine regioni infrarossa ed ultravioletta di quel tanto che ci consentono le attuali
pellicole fotografiche o gli altri mezzi rivelatori come i CCD e le cellule
fotoelettriche, conviene adottare il sistema di coordinate altazimutale avente come
origine l’osservatore, perché solidale con il fenomeno disturbante che si va ad
esaminare ed invariante rispetto ad esso; per “mappa spettroscopica del sito”
intendo la rappresentazione delle intensità I = I(q ,j ,l ) della radiazione
elettromagnetica incidente in funzione delle coordinate q e j , che rappresentano la
direzione di provenienza, e della lunghezza d’onda l nell’ambito di una
determinata finestra spettrale D l ; si possono poi introdurre, se utili allo studio,
altri parametri di interesse (polarizzazione, variazioni temporali, flickering, ecc.);
trattandosi quindi di una funzione di almeno tre variabili (le due coordinate spaziali
altazimutali e la lunghezza d’onda), questa I(q ,j ,l ) si dovrà rappresentare su
più grafici a due dimensioni, nei quali le coordinate altazimutali verranno poste sugli
assi cartesiani ortogonali o in un diagramma polare, mentre sarà parametrizzata la
lunghezza d’onda.

LA STRUMENTAZIONE

Il metodo prevede
l’impiego di uno spettrografo per il campionamento dei dati, di un rivelatore per il
loro immagazzinamento, che nel nostro esempio sarà la pellicola fotografica, e di un
microdensitometro per la successiva riduzione; come rivelatore si potrebbe ugualmente
impiegare altra strumentazione, come per esempio un CCD collegato al suo computer tramite
la scheda di acquisizione; altrimenti il tutto può essere sostituito da una più
economica cellula fotoelettrica in abbinamento a diversi filtri a bande passanti
sufficientemente strette e contigue (ma sempre con larghezze minime dell’ordine di 103
angstrom): i filtri Wratten di gelatina della Kodak, (purché non siano fluorescenti) o
quelli della Schott in vetro; se però si volessero bande passanti di qualche centinaio di
angstrom o inferiori, occorrendo filtri interferenziali, assai costosi, cadrebbe il
risparmio e quindi la convenienza del loro utilizzo.

Lo spettrografo sarà formato
da una sezione disperdente o spettroscopio e da una sezione fotografica (figura 1), per
analizzare la radiazione che arriva sulla sua fenditura entro l’angolo solido a c
definito dall’apertura relativa del collimatore.

A seconda dell’ampiezza
dell’angolo di misura a m scelto per effettuare il campionamento, lo
strumento dovrà essere volta per volta preceduto da un diverso tubo conico paraluce che
ne limiti a tale angolo la visibilità dalla fenditura, sia con lo scopo di proteggere la
stessa dalle luci provenienti da direzioni indesiderate, cioè esterne all’angolo di
misura, che per diffrazione potrebbero diffondersi da questa all’interno dello
spettroscopio alterandone le letture, sia con quello di confinare la direzionalità dello
strumento, portando l’angolo di misura dal valore intrinseco a c,
caratteristico dello strumento, al nuovo valore corrente a m, scelto per
l’esplorazione di ogni campione, che è l’angolo o cono entro il quale la luce
entra effettivamente nello spettrografo.

Per semplicità di progetto,
se la dimensione della fenditura non è troppo grande rispetto al diametro del
collimatore, questi angoli solidi a c ed a m si possono pensare come
coni di rotazione, ed è evidente che, per avere la massima copertura di cielo senza
sovrapposizioni, a m dovrà ogni volta essere uguale al passo angolare a p
con cui si vuole effettuare il campionamento. Inoltre, poiché lo spettrografo accetta
soltanto la radiazione che arriva sulla sua fenditura entro l’angolo solido a c
definito dall’apertura relativa del suo collimatore, vanno distinti i seguenti tre
casi.

1) Se la zona di cielo che si
vuole studiare con una singola esposizione è esattamente coincidente con tale angolo
solido, cioè se a m = a c, allora l’impiego del paraluce già
detto, avente uguale ampiezza, ha il solo scopo di proteggere la fenditura da luci esterne
a tale angolo, che generando fronti d’onda per diffrazione sulla fenditura stessa
inquinerebbero la raccolta dei campioni all’interno dello strumento.

2) Se invece questa zona è
meno estesa, cioè se a m < a sub>c, allora sarà opportuno usare un
diaframma o tubo paraluce adeguatamente più ristretto, che consenta la visibilità del
solo angolo solido di misura a m, sia a scopo protettivo, come nel caso
precedente, che limitativo, cioè per evitare di includere nella misura corrente zone di
cielo spettanti alle misure attigue.

3) Se infine la zona della
misura è più estesa, cioè se a m a c, oltre al diaframma o
tubo paraluce, che per consentire la visibilità di tutto l’angolo a m
dovrà essere adeguatamente più largo, si dovrà impiegare tra questo e la fenditura uno
schermo diffusore (per esempio un vetro smerigliato); però questo caso, se possibile, è
da evitare, perché la presenza del diffusore comporta inevitabilmente una grossa perdita
di luminosità dello strumento.

FIGURA 1: Lo strumento campionatore (in corso di definizione)

La dispersione dello
spettrografo e la sua risoluzione devono essere calcolate in modo da raccogliere tutto lo
spettro in un solo fotogramma nel senso della lunghezza, per non dover ripetere più volte
il campionamento nella stessa direzione, cosa che introdurrebbe nuovi errori e nuovi
problemi; tale spettro sarà contornato sopra e sotto da spettri di confronto a righe,
ottenuti per scintilla subito dopo la posa, sempre attraverso la medesima sezione
disperdente.

La dispersione lineare media
che si otterrebbe per far comparire sullo stesso fotogramma 24×36 mm uno spettro esteso da
circa 13000 Å (estremo infrarosso registrabile fotograficamente) fino a circa 3000 Å
(ultravioletto), risulterà di:

(13000 Å – 3000 Å)/36
mm = 278 Å / mm

mentre se il formato della pellicola fosse di
60 x 90 mm, si avrebbe:

(13000 Å – 3000 Å)/90
mm = 111 Å / mm

valore decisamente più interessante ma
legato ad un formato meno pratico e versatile; inoltre nel formato 35mm è reperibile una
varietà assai maggiore di emulsioni rispetto agli altri formati.

Questi valori sono però poco
realistici, per la dispersione non lineare dei prismi e dei reticoli, anche considerata,
per questi ultimi, la notevole estensione (10000 Å) dello spettro investigato: anche per
questo ritengo che un prisma, realizzabile in fluorite o vetro speciale per la trasparenza
nella regione ultravioletta, sia la soluzione migliore; un reticolo, certamente più
costoso, potrebbe comportare la presenza disturbante degli spettri di ordine superiore, se
non previsti e confinati in fase di progetto, che sovrapponendosi a quello utile
falserebbero i risultati.

IL CAMPIONAMENTO

Esso consisterà nella
esposizione di un fotogramma di pellicola per ogni campione, e darà luogo ad uno spettro
a righe relativo alle radiazioni di tutte le lunghezze d’onda della finestra ottica
scelta inizialmente e provenienti da una medesima direzione, che è quella dell’asse
dello strumento.

Questa semplice operazione
sottintende diverse ipotesi tutt’altro che ovvie:

  1. che esista, in prima approssimazione, una
    relazione di proporzionalità fra l’intensità della radiazione che colpisce la
    pellicola e l’annerimento della stessa
    ;
  2. In pratica non è
    così, sia a causa della mancanza di reciprocità delle emulsioni sensibili, sia in tutti
    quei casi nei quali l’annerimento oltrepassa il valore di saturazione. Tuttavia
    l’uso dei calcolatori rende oggi spedito il calcolo dell’irraggiamento a cui è
    stata sottoposta una emulsione fotografica, nota l’opacità misurata sul negativo e
    la curva caratteristica dell’emulsione. Se l’esposizione avesse prodotto la
    saturazione, almeno nel caso di sorgenti puntiformi, potrebbe ottenersi ancora una buona
    stima dell’irraggiamento ricevuto attraverso la cosiddetta “point spread
    function”; per le righe spettrali potrebbe essere usata un’analoga funzione. Nel
    caso dello studio spettroscopico dell’inquinamento luminoso la saturazione potrebbe
    aversi solo per qualche sorgente molto brillante. Al convegno sui telescopi Schmidt,
    tenutosi qualche anno fa a Bandung, fu presentato un lavoro in cui si dimostrava, per
    l’emulsione fotografica, una dinamica di 64000 livelli di grigio, valore di tutto
    rispetto, confrontabile con i migliori risultati forniti dai CCD. Occorre però
    sottolineare la complessità dello studio fotografico per il suo particolare processing,
    sia in fase di sviluppo per ottenere un negativo corretto, sia in fase di digitalizzazione
    ed analisi dello spettro ottenuto.

  3. che l’esposizione sia assolutamente uguale per
    tutti i campioni prelevati
    .
  4. Tale
    vincolo potrebbe essere assai difficile da rispettare, visto l’ingente numero di
    esposizioni da effettuare;

  5. che lo strumento campionatore, di qualsiasi tipo e
    costituzione, sia stato preventivamente tarato
    .
  6. Taratura
    da farsi sempre rispetto ad uno stesso riferimento o “valore zero” delle
    intensità di radiazione campionate;

  7. che non esistano limiti di spesa per questo lavoro di
    ricerca
    .

Si prevede in
generale il consumo, tra primi tentativi, prove, fallimenti e campioni validi, di
centinaia di fotogrammi di pellicole diverse e di varie sensibilità spettrali, e
l’impiego di moltissime ore di lavoro per la raccolta e la riduzione dei dati.

Per superare le difficoltà
attribuibili alla pellicola fotografica può essere di grande vantaggio sostituirla per
esempio con un CCD collegato al computer tramite la sua scheda di acquisizione.

La sostituzione
comporterà un cambiamento di metodo nell’acquisizione dei dati e nel successivo
lavoro di riduzione, operati stavolta dalla scheda del CCD e dal computer che la supporta,
con risultati sostanzialmente identici (fatte salve le già menzionate complicazioni della
pellicola fotografica) ma molto più veloci e affidabili; infatti l’uso di pellicola
fotografica comporta il gravoso compito di ottenere sperimentalmente, ogni volta che si
inizia una nuova pellicola o un nuovo pacco di lastre, la forma della curva di risposta
della stessa (annerimento contro intensità incidente). Questa risposta varia a causa di
molteplici fattori, sia ambientali che costruttivi, compreso lo stato di conservazione
della singola confezione, tanto più se si tratta di pellicola ipersensibilizzata, e
persino le condizioni di sviluppo giocano a tale riguardo un ruolo non trascurabile.

Comunque lo si faccia, il
rilevamento sarà discreto e consisterà nella esposizione di tanti fotogrammi per quante
sono le direzioni da esplorare in tutto l’emisfero celeste visibile dal sito in
questione, scandagliate con passo di campionamento a p che deve coincidere con
l’angolo solido di misura a m scelto per ridurre al minimo la superficie
di cielo risultante dai ritagli non esplorati e per evitare che una stessa porzione di
cielo venga campionata più di una volta.

Però più stretto si sceglie
l’angolo a p = a m, per migliorare la definizione della mappa
risultante, più grande dovrà essere il numero dei campioni da raccogliere, dipendendo
dal reciproco del quadrato del passo angolare a p.e poi anche la durata della
posa, dipendendo dal reciproco della superficie di cielo inquadrata, varierà in ragione
inversa del quadrato di a m, per cui si conclude che, sempre e solo se a p
= a m, la durata totale di questo lavoro è inversamente proporzionale alla
quarta potenza del passo di campionamento a p,
e quanto più questo fosse
piccolo, tanto e tanto più vasto e complesso sarebbe il lavoro totale.

Inoltre, qualora si
raccogliessero i campioni seguendo la trama delle coordinate altazimutali, a causa del
restringimento dei cerchi azimutali con il crescere dell’altezza h
sull’orizzonte, rimanendo a p costante, si avrebbe sempre maggiore
sovrapposizione tra misure adiacenti procedendo verso lo zenit, e quindi si incorrerebbe
comunque in un errore di tutte le misure, a meno che non si provveda a variare a p,
e di conseguenza anche a m, in ragione delle dimensioni stesse dei cerchi
azimutali, e cioè proporzionalmente a cos(h), ma non mi sembra un metodo consigliabile,
perché così si dovrebbero ogni volta cambiare sia il paraluce dello strumento che la
durata della posa, introducendo sempre più complicazioni ed imprecisioni.

E’ necessario quindi
limitare al minimo indispensabile il numero dei campioni, razionalizzando
contemporaneamente la loro disposizione; il problema è ancora allo studio, per cui mi
limito soltanto ad elencare qui tre possibili criteri organizzativi per la raccolta più
razionale delle misure, anche in funzione della migliore economia e praticità della
procedura:

  1. operare una scansione che interessi una fascia
    rettangolare in proiezione di Mercatore, sorgente dall’orizzonte, estesa per
    l’intera sua lunghezza di 360° ed alta fino al polo oppure fino ad un certo valore
    massimo hM, organizzata cioè secondo le coordinate altazimutali rettangolari,
    con a p ed a m uguali tra loro e proporzionali a cos(h), ed una
    seconda zona circolare, che parta dall’altezza minima hM ed arrivi
    concentrica fino allo zenit, a guisa di calotta polare, nella quale il campionamento
    risponda ad un criterio geometrico di celle adiacenti, come in un nido d’ape
    (struttura compatta);
  2. adottare quest’ultimo criterio (struttura
    compatta di celle adiacenti) per tutto l’emisfero sopra l’orizzonte, cioè
    ponendo hM = 0;
  3. effettuare i campionamenti lungo i vari cerchi
    azimutali orizzontali, distanti tra loro di un angolo uguale al passo di campionamento a p,
    partendo dal cerchio orizzontale alto a p/2 sopra l’orizzonte e tenendo
    presente l’esigenza di finire con un campione centrato sullo zenit.

RIDUZIONE DEI DATI CAMPIONATI E
COSTRUZIONE DELLA MAPPA SPETTROSCOPICA

Da ogni campione spettrale
raccolto fotograficamente mediante lo spettrografo, e relativo ad una coppia di
coordinate, occorrerà ricavare, dalle misure effettuate col microdensitometro, le
densità fotografiche corrispondenti e, nota la curva caratteristica dell’emulsione
per la zona spettrale considerata, trasformare queste densità in intensità; dopo questi
passi si potrà tracciare un diagramma spettrofotometrico I(l) che presenti in ascissa la
lunghezza d’onda l ed in ordinata l’intensità registrata I della radiazione. Da
questo sarà già possibile individuare le più buie e favorevoli finestre spettrali del
cielo da valutare.

Raggruppati insieme i
campioni spettrali di un medesimo azimut, si potrà poi ricavare un diagramma composto,
che chiamerò “diagramma spettrofotometrico azimutale”; esso comprenderà tante
diverse curve I(l) per quanti saranno i campioni spettrali raccolti alle diverse altezze
sul medesimo azimut, cioè per tutte le direzioni dall’orizzonte allo zenit che
giacciono sul medesimo piano verticale; questo nuovo diagramma risulterà parametrizzato
per le altezze, perché il microdensitometro ritraccerà sullo stesso una nuova curva I(l)
per ogni ulteriore campione spettrale dello stesso azimut ma di diversa altezza.

L’utilità di un tale
diagramma sta nella possibilità di verificare come in genere l’inquinamento luminoso
sia sempre più forte man mano che dallo zenit ci si avvicina all’orizzonte, e di
controllare l’entità di questo fenomeno alle diverse lunghezze d’onda, oltre alla
possibilità di confrontare siti diversi individuando quelli meno compromessi.

In modo del tutto analogo si
potrebbero raggruppare insieme, a scopo di studio, quelle misure I(l ) relative ad una
medesima fascia di altezze, individuando così corone circolari di cielo concentriche allo
zenit e di spessore conveniente.

L’insieme di tutte le
misure che definiscono i diversi diagrammi spettrofotometrici I(l ) concorrerà a formare
la mappa spettroscopica del sito, vale a dire la rappresentazione della intensità della
radiazione elettromagnetica incidente sul sito stesso I(q ,j ,l ), resa in funzione della
direzione di provenienza e della lunghezza d’onda.

Grazie ad essa si potrà
dedurre a prima vista, per tutti i siti, se e quanto siano possibili l’osservazione,
la fotografia, la fotometria o altri tipi di indagine degli oggetti celesti che
interessano, nonostante l’inquinamento luminoso, e a causa di esso se sia anche
necessario l’impiego di filtri a banda stretta per isolare una finestra spettrale
data (l2 – l1); scelti allora diversi valori discreti di l i
presi ad intervalli regolari sulla scala delle l, per individuare minuscole finestre
spettrali adiacenti

D l i = [l i
– l i-1]
,

tutte di uguale larghezza
pari alla differenza tra due successive l i e sufficientemente ristrette da
poterle considerare, per i nostri scopi, come regioni spettrali monocromatiche; e dopo
aver fatto questa selezione su tutti i diagrammi spettrofotometrici, si potranno
realizzare mappe spettroscopiche “monocromatiche” del sito per le date finestre
spettrali stabilite, in coordinate rettangolari oppure polari, che riportano sugli assi,
per passi discreti, le coordinate spaziali (nel nostro caso azimut A ed altezza H) e punto
per punto le intensità campionate della radiazione, mediante rappresentazione grafica di
chiaroscuri oppure numerica.

La mappa spettroscopica
globale di un sito, concepita come riunione delle mappe spettroscopiche monocromatiche,
raffigurerà punto per punto le zone di cielo contenenti maggiore o minore inquinamento
luminoso, riportando mediante regioni contrassegnate da sfumature, ombreggiature, falsi
colori ed isofote tarate, le corrispondenti intensità della radiazione e le relative
lunghezze d’onda, analogamente alle cartine geografiche raffiguranti i rilievi
montuosi e le profondità marine, con zone di diverso colore e di diversa intensità
limitate tra loro da curve di livello, approssimando a monocromatiche le ristrette
finestre spettrali scelte in precedenza.

TARATURA DEGLI STRUMENTI

L’esigenza della
taratura degli strumenti,è dovuta ai seguenti inconvenienti:

1) che due mappature del
medesimo sito effettuate con due strumentazioni diverse oppure in tempi diversi e con la
medesima strumentazione, sempre a parità di condizioni ambientali, diano luogo a due
mappe differenti per intensità perché le esposizioni nella campionatura sono state
diverse (indeterminazione della curva di risposta globale dello strumento in
funzione della intensità luminosa
incidente);

2) che diverse strumentazioni
utilizzate per eseguire le mappature, anche a parità di esposizioni, diano ancora luogo a
mappe differenti, questa volta però nella risposta spettrale alle varie lunghezze
d’onda, perché diverse sono le sensibilità spettrali dei vari tipi di trasduttori
utilizzati (indeterminazione della curva di risposta globale dello strumento in
funzione della lunghezza d’onda
della radiazione incidente);

3) che non avendo stabilito
convenzionalmente uno “zero” per la scala delle intensità della radiazione
osservata, non si riescano a confrontare tra loro le varie mappe spettroscopiche dei vari
siti da paragonare, cadendo così nel vuoto tutta l’utilità di questo lavoro
(mancanza di una calibrazione rispetto ad unità di misura anche arbitrarie, ma
comunque rapportabili allo strumento, o di una calibrazione assoluta, che
consentirebbe di esprimere le misure effettuate dallo strumento, già corrette per le
suesposte curve di risposta, in unità di misura assolute, cioè confrontabili ovunque).

Per evitare questi
inconvenienti si dovrebbe innanzitutto disporre di un rivelatore ideale, atto cioè a
rivelare le radiazioni di tutte le lunghezze d’onda nell’ambito di uno spettro
il più vasto che sia possibile e con uguale sensibilità ad ognuna di esse, ed una
correlata sorgente spettrofotometrica campione che serva per effettuare la sua
calibrazione assoluta, atta cioè ad emettere tutte le lunghezze d’onda dello spettro
coperto dalla sensibilità del rivelatore con intensità uguale, costante nel tempo e
perfettamente nota.

Questo rivelatore e questa
sorgente campione dovrebbero avere cioè una risposta costante, ovvero una funzione di
trasferimento piatta delle intensità misurate in funzione delle frequenze. Naturalmente
tali dispositivi non esistono, e quindi per ottenere risultati scientificamente
significativi non resta che ripiegare sulle tecnologie disponibili correggendo però, per
l’obiettività degli stessi risultati, gli errori sistematici che queste tecnologie
introducono.

E’ noto che le
diverse emulsioni fotografiche hanno tutte una grande sensibilità spettrale dovuta agli
alogenuri d’argento, base chimica comune a tutte, nella regione che va dalle più
corte lunghezze d’onda, quelle dei raggi X e ultravioletti, fino a quasi 5000 Å, nel
blu; considerato poi che il limite inferiore dello spettro trasmesso dall’atmosfera e
dagli obiettivi di cristallo si aggira intorno ai 3000 Å, si può dire in pratica che
sono tutte assai sensibili nella zona del blu-violetto e ultravioletto. Le emulsioni di
puro alogenuro d’argento, che rispondono solo in questa finestra, sono appunto dette
“sensibili al blu”.

Con l’aggiunta
di prodotti chimici diversi agli alogenuri fotografici si ottengono le altre categorie di
pellicole, differenti per l’estensione della sensibilità spettrale: le
ortocromatiche fino a 5500 Å, nella zona del giallo-verde; le pancromatiche fino a 7000
Å, comprendenti tutta la zona del rosso; le infrarosse coprono le regioni spettrali di
lunghezze d’onda maggiori di 7000 Å, alcuni tipi molto diffusi commercialmente fino
a circa 9400 Å, altri tipi fin verso i 13000 Å.

Invece i CCD hanno
tutti la loro sensibilità massima nella regione intorno agli 8000 Å, che è quella
dell’estremo rosso e del vicino infrarosso; generalmente poi oltre i 10000 Å la
sensibilità precipita fino a circa 11000 Å, dove giunge al minimo. Essi hanno scarsi
risultati anche nel giallo-verde e nel blu-ultravioletto.

Analoghe
considerazioni si potrebbero fare riguardo ad altri tipi di sensori da impiegare in questo
lavoro, per cui si può concludere in generale che di ogni dispositivo elettronico o
materiale sensibile che si intenda usare come rivelatore occorrerà conoscere, oltre alla
forma della curva di risposta in funzione dell’intensità luminosa incidente, che di
solito il fabbricante fornisce da misure effettuate “in luce bianca”,
anche la curva spettrofotometrica della sensibilità, vale a dire la risposta del
rivelatore alle varie lunghezze d’onda, per poter poi tener conto, nella fase di
riduzione dei dati, dell’errore sistematico rappresentato dagli scostamenti della
risposta reale rispetto a quella piatta teorica. Alle lunghezze d’onda in cui tale
scostamento è nullo la risposta del rivelatore è uguale a quella ideale e quindi queste
potranno servire come riferimento.

Nel caso di impiego
come rivelatore di pellicola fotografica, anche di tipo sempre uguale, per quanto già
detto sulla variabilità delle curve di annerimento fornite dal costruttore in funzione
dell’intensità luminosa e della lunghezza d’onda incidente con molteplici
fattori, sia ambientali (la temperatura e le altre condizioni di lavoro e il successivo
stato di conservazione, compreso il tempo trascorso fino allo sviluppo) sia costruttivi
(ogni pezzatura prodotta può differire dalle altre) sia chimici (il trattamento di
sviluppo finale), si comprende quanto il suo utilizzo debba essere gravoso, comportando le
preliminari esposizioni di taratura ogni volta che si inizia una nuova pellicola o un
nuovo pacchetto di lastre.

Qualora si facciano
misure singole in poche bande fotometriche, per la taratura si può usare un sensitometro,
ossia un apparecchio che espone sulla pellicola una serie di immagini con intensità
scalata in modo conosciuto (una serie per ogni banda fotometrica); se invece si vogliono
fare misure spettrofotometriche occorre determinare la curva di risposta della pellicola
per ogni lunghezza d’onda utile: non c’è infatti ragione di pensare che la
risposta della pellicola non vari con la lunghezza d’onda. Bisognerebbe impiegare un
sensitometro in grado di esporre più spettri con rapporti di intensità noti per poi
ricavare da questi la forma della funzione: annerimento = F(I, l ); la cosa più ovvia a
tal proposito è proprio usare il nostro spettrografo per compiere queste esposizioni di
taratura, anche perché in questo modo, con una operazione unica, si avrà la risposta
globale dell’insieme “rivelatore + spettrografo”; non solo, ma si potranno
in tal modo calibrare gli spettri in lunghezza d’onda, esponendo semplicemente uno
spettro di confronto generato da una sorgente campione spettrofotometrica (scintilla, arco
o altra, comunque da cercare e anche questa di non banale individuazione) nello stesso
fotogramma in cui viene registrato il campione spettrale relativo all’inquinamento
luminoso. Sarebbe infatti molto più difficile e molto meno utile stimare singolarmente il
fattore di assorbimento dello strumento e poi, separatamente, calibrare in modo assoluto
il rivelatore, per calcolare infine la risposta globale come combinazione delle due.

Si dovrà poi stabilire un
arbitrario livello di riferimento, assunto convenzionalmente come origine degli assi o
“zero”: sembrerebbe banale porre il problema, visto che una “intensità
zero” significa in teoria assenza di radiazione; invece non è poi così banale, se
si considera che, per quanto piccola possa essere la minima grandezza misurabile da uno
strumento, esisterà sempre una quantità inferiore ad essa, che tale strumento non è in
grado di misurare perché situata al di sotto del limite inferiore di sensibilità dello
stesso; va pertanto considerato che mentre il range possibile delle intensità luminose
esistenti in natura può assumere anche valori infinitesimi (in genere rappresentati più
comodamente su scala logaritmica la quale, come noto, estendendosi all’infinito, non
porta alcun valore “zero”), l’escursione dei valori misurabili da un
generico strumento è assai più limitata della natura e presenta un limite inferiore che
può essere adottato come livello di riferimento o “zero”.

Sarà quindi logico scegliere
tale valore di riferimento in funzione di un aspetto stabile e caratteristico dello stesso
fenomeno osservato, che secondo me potrebbe essere la presenza, nel cielo, di una debole e
costante luminosità intrinseca comunemente detta “fondo cielo”.

LA LUMINOSITÀ DEL
CIELO NOTTURNO

Il Cielo notturno, anche dove
non si vedono stelle, non è mai completamente buio, come si può facilmente verificare
osservando quanto chiaramente si stagli la sagoma di un oggetto oscuro contro di esso:
esistono infatti svariati fenomeni, sia di origine atmosferica che extraterrestre, che
generano luminescenza, in parte per emissione diretta ed in parte per diffusione; eccone
alcuni:

1)
La “radiazione del cielo notturno” detta anche “aurora permanente”
o “airglow”
, che è una luminosità permanente dell’alta atmosfera, e
si manifesta attraverso una quarantina di righe spettrali di emissione ed alcune bande di
origine molecolare molto analoghe a quelle presentate dalle aurore polari (figura 4); tra
le più intense si può citare quella a 10400 Å nell’infrarosso, dovuta
all’azoto, il doppietto giallo del sodio a 5890 e 5896 Å, come pure quelle a 6300 e
6364 Å, nel rosso, e a 5577 Å, nel verde, dovute all’ossigeno atomico, e la riga
ultravioletta Lyman-alfa a 1216 Å dovuta all’idrogeno, non percepibile dal suolo a
causa dell’assorbimento atmosferico, ma registrabile da razzi in orbita o palloni
sonda in alta quota. Sono tutte lunghezze d’onda che molecole ed atomi dell’alta
atmosfera riemettono spontaneamente dopo aver assorbito l’energia del Sole durante il
giorno; nell’ambito del visibile la più intensa, che merita tra le tante di essere
citata, è certamente la 5577 Å [O.I], che si dice “proibita” perché non è
riproducibile in laboratorio alle normali condizioni di temperatura e pressione presenti
sulla Terra, mentre nello spazio è prodotta spontaneamente dall’ossigeno neutro, che
a causa delle particolari condizioni fisiche ivi presenti, vi si trova in forma di atomi
isolati, e non di molecole biatomiche.

2) La “luce
crepuscolare”
dovuta a fluorescenza di atomi e molecole dell’alta atmosfera
direttamente eccitata dalla luce solare;

3) La “luce
zodiacale”
, fenomeno di diffusione e riflessione di luce bianca solare
polarizzata ad opera di particelle sospese in orbita nel Sistema Solare;

4) L’
“arco aurorale monocromatico”
, dovuto alle righe rosse 6300-6364 Å
dell’ossigeno e attribuito a scambi di particelle tra le due “cinture di Van
Allen”;

5) Il
“Gegenschein” o “luce dell’opposizione”
, generato, secondo la
teoria di Brandt e Shklovsky, dai fenomeni della “Geochioma” e della
“Geocoda”, costituite da una gigantesca nube di idrogeno e polvere cosmica
attorno alla Terra, grazie alla dissociazione delle molecole atmosferiche di vapore acqueo
e metano operata dai raggi solari; fenomeno emittente una tenue luminescenza per
l’eccitazione provocata dal vento solare e dalla pressione di radiazione proprio
nella direzione della Geocoda, sempre opposta a quella del Sole; a conferma di questa
ipotesi sono state registrate da razzi “Aerobee” righe proprie dello spettro
dell’idrogeno nella luce diffusa del cielo notturno (Lyman-alfa a 1216 Å).

Questi fenomeni, ognuno in
misura diversa, contribuiscono alla luminosità propria globale del fondo cielo, che si
stima almeno cento volte la minima brillanza percepibile dall’occhio, come quella
prodotta da una lampada di 50 candele su uno schermo distante 400 metri.

Relativamente alla brillanza
di origine atmosferica generata in uno strato sottile di aria alla quota h sul livello del
mare, esiste in letteratura anche un algoritmo che prende il nome dallo studioso Van
Rhijn, con il quale è possibile ricavare per ogni sito, nota la luminosità intrinseca I0
dello zenit, quella I(z) di un punto qualsiasi del cielo distante un angolo z da esso:

dove: z = angolo zenitale,
compreso tra lo zenit ed il punto considerato;

a = raggio terrestre;

h = altezza del sito sul
livello del mare, ovvero dello strato sottile di aria.

Naturalmente i contributi
naturali alla luminosità del cielo notturno non devono essere letti dal nostro strumento
campionatore, che invece ha il compito di controllare l’entità
dell’inquinamento luminoso, cioè del solo contributo artificiale, di molto superiore
a quelli naturali.

Perciò ogni strumento
preposto alla registrazione di campioni delle intensità luminose o radianti in arrivo su
un dato sito dovrà anzitutto leggere come “zero” o limite inferiore dei valori
misurati il contributo medio globale della luminosità propria del cielo notturno in
assenza di altre luci inquinanti, in quanto riferito ad un fondo cielo sempre presente ed
indipendente dall’inquinamento luminoso, e la cui variabilità con la latitudine
geografica del sito e con le stagioni risulta di entità trascurabile nei confronti della
radiazione disturbante da misurare.

Nella campionatura spettrale
il fondo cielo dovrà pertanto produrre sulla emulsione fotosensibile, ad una lunghezza
d’onda di riferimento, un annerimento impercettibile che corrisponda cioè ad una
densità D = 0 sopra il velo totale e, nel caso dei CCD o di altri sensori elettronici,
esso dovrà corrispondere, nei registri, ad un valore minimo convenzionale.

FIGURA 4: Spetto della luminosità proveniente dal cielo notturno (in
corso di definizione)

UN METODO DI TARATURA SUGGERITO

Il maggiore problema che si
presenta a questo punto, in cui si tratta di stabilire un metodo di calibrazione dello
strumento utilizzato, è quello di arrivare alla calibrazione assoluta, ossia trasformare
le misure, già calibrate, cioè corrette rispetto alle curve di risposta globali in
intensità e lunghezza d’onda ma espresse in unità arbitrarie proprie dello
strumento, in misure espresse in unità assolute, per poter garantire la confrontabilità
dei dati ottenuti da un determinato strumento sia con quelli di altri strumenti analoghi
sia con misure di altri ricercatori.

Suggerisco pertanto il
seguente metodo, da adottare per effettuare la taratura di uno strumento particolare,
preso ad esempio:

1° Passo:
Scegliere una lunghezza d’onda di riferimento l 0 con la quale si
realizzerà la calibrazione dello strumento, all’interno dell’intervallo
spettrale che deve essere esplorato; essa può convenientemente venire identificata
secondo uno dei due seguenti criteri:

a) l 0
viene identificata con una l x notevole, che cioè corrisponda, come già
indicato prima, a realtà fisiche obiettive di rilievo, per esempio ad una riga intensa, e
sia quindi facilmente rintracciabile tra le tante altre righe emesse dai fenomeni
responsabili della luce del cielo notturno;

b) l 0
viene identificata con un’altra l x, sempre notevole, stavolta però per
via della natura fisica del rivelatore che magari presenta un certo valore noto di
sensibilità (a cui può essere comodo fare riferimento) proprio a quella lunghezza
d’onda.

E’ evidente
allora che nel caso particolare di indagini sulla luce inquinante che si sovrappone a
quella naturale proveniente dal cielo notturno, e dovendo poter avere la libertà di
prescindere dal tipo di rivelatore utilizzato, conviene adottare il primo dei criteri
suesposti, scegliendo la riga più intensa nella finestra spettrale scelta; io inoltre,
con riferimento allo spettro della luminosità del cielo notturno nell’ambito del
visibile (figura 4), suggerisco di scegliere come l 0 la riga proibita 5577 Å
[O.I] dell’ossigeno neutro proprio perché è la riga più intensa della finestra
ottica; una tale scelta, infatti, determinando la calibrazione dello strumento, lo
porterà a non leggere alcun valore al di sotto di tale intensità, per cui esso non
verrà influenzato dalla luce del cielo notturno ma soltanto dall’inquinamento
luminoso.

2° Passo:
Determinare sperimentalmente con prove successive il tempo di esposizione t0
necessario a quello strumento particolare, filtrato per la sola finestra spettrale di
lunghezza d’onda media l 0 ed orientato verso lo zenit in un sito ideale
(in pratica il più buio che si riesce a trovare) per produrre sull’emulsione
sensibile una densità D=0 sopra il velo totale, o comunque per determinare, nelle misure
relative agli altri tipi di sensori, il valore minimo convenzionale, sempre alla sola
lunghezza d’onda l 0, tenendo conto poi del fattore di assorbimento del
filtro a quella lunghezza d’onda e riducendo di conseguenza il tempo t0
sperimentalmente individuato.

Bisogna a questo
punto ammettere che la ricerca, l’individuazione e la scelta di questa riga come
lunghezza d’onda l 0 di riferimento assomigliano, come per la pietra
filosofale, alla già menzionata ricerca della sorgente spettrofotometrica ideale, che in
realtà non esiste. Infatti la brillanza naturale del cielo, come quella di ogni riga del
suo spettro, è presumibilmente suscettibile di variazioni con la trasparenza atmosferica,
la direzione ed il luogo di osservazione, l’ora della notte e cioè la distanza dal
crepuscolo, e l’attività solare del giorno precedente. A noi occorre però un valore
pratico, statistico o medio della brillanza alla lunghezza d’onda l 0.

Per la gioia dei
più rigorosi dirò allora che si può stabilire, attraverso un campione significativo di
molte misure di intensità di tale riga, prese una volta per tutte in vari tempi e luoghi
anch’essi scelti a campione secondo criteri statistici che esulano dagli interessi di
questa dissertazione, quali siano i più elementari valori attesi o parametri statistici
di questa grandezza, e poi di conseguenza scegliere quel valore assoluto convenzionale (e
con ciò siamo giunti, per la gioia dei pignoli, alla calibrazione assoluta) che soddisfa
le nostre esigenze di misura (ad esempio il più elevato se la varianza supera
l’errore sistematico dello strumento, o il valor medio in caso contrario).

3° Passo:
Effettuare la raccolta dei campioni esponendo sempre con il tempo t0 così
determinato, senza filtri e relativamente allo strumento considerato.

4° Passo:
Documentarsi con precisione presso il costruttore sulla funzione di trasferimento F(l )
dell’elemento rivelatore utilizzato (e poi riferirla a l 0, cioè
normalizzarla, moltiplicandola per una costante, in modo che Fnorm(l 0)
= 1).

5° Passo:
Con i valori della Fnorm(l i) normalizzata che corrispondono alle
ristrette finestre D l i così scelte in precedenza per approssimarle a regioni
spettrali “monocromatiche”, correggere i campioni prelevati dallo strumento
dividendo il valore del campione I(l i) per la funzione di trasferimento Fnorm(l
i).

E’ noto in tal
caso che se le misure fossero riportate su una scala logaritmica (per esempio in decibel),
anziché dividere il campione I per la risposta F, si dovrebbe sottrarre questa (espressa
però in valori logaritmici) al campione I.

 

Un particolare ringraziamento va al
chiarissimo Prof. Salvatore Cristaldi, dell’Osservatorio Astrofisico di Catania, per
la sostanziale opera di revisione critica del lavoro e al Dr. Pierantonio Cinzano
dell’Osservatorio Astronomico di Padova per i preziosi suggerimenti e spunti di
riflessione offertimi.

Commenti chiusi