@new-style gretl.hlp

# add Tests "Test per le variabili aggiunte"

Aggiunge le variabili selezionate al modello precedente e stima il nuovo
modello. Se si aggiunge più di una variabile, verrà mostrata la statistica F
e il suo p-value per le nuove variabili (solo per la procedura OLS). Un
p-value inferiore 0.05 significa che i coefficienti sono congiuntamente
significativi al livello del 5 per cento.

Comando script: add

# adf Tests "Test Dickey-Fuller aumentato"

Questo comando richiede un ordine di ritardo intero; se si indica un ordine
zero, viene eseguito un test Dickey-Fuller standard (non aumentato).

Calcola le statistiche per un gruppo di test Dickey-Fuller sulla variabile
specificata, assumendo come ipotesi nulla che la variabile abbia una radice
unitaria.

Per impostazione predefinita, vengono mostrate tre varianti del test: una
basata su una regressione che contiene solo una costante, una che include la
costante e un trend lineare, una che usa la costante e un trend quadratico.
È possibile controllare le tre varianti specificando una o più opzioni.

In tutti i casi, la variabile dipendente è la differenza prima della
variabile specificata, y, e la variabile dipendente più importante è il
ritardo (di ordine uno) di y. Il modello è costruito in modo che il
coefficiente della variabile ritardata y è pari a 1 meno la radice. Ad
esempio, il modello con una costante può essere scritto come

  (1 - L)y(t) = b0 + (1-a)y(t-1) + e(t)

Se l'ordine di ritardi, p, è maggiore di 0, ai regressori di ognuna delle
regressioni calcolate per il test saranno aggiunti p ritardi della variabile
dipendente.

I p-value per questo test sono basati su MacKinnon (1996). Il codice
rilevante è incluso per gentile concessione dell'autore.

Comando script: adf

# ar Estimation "Stima autoregressiva"

Calcola le stime parametriche usando la procedura iterativa generalizzata di
Cochrane-Orcutt (si veda il Capitolo 9.5 di Ramanathan). La procedura
termina quando le somme dei quadrati degli errori consecutivi non
differiscono per più dello 0.005 per cento, oppure dopo 20 iterazioni.

La "lista dei ritardi AR" specifica la struttura del processo dell'errore.
Ad esempio, l'indicazione "1 3 4" corrisponde al processo:

  u(t) = rho1*u(t-1) + rho3+u(t-3) + rho4*u(t-4)

Comando script: ar

# arch Tests "Test ARCH"

Questo comando richiede un ordine di ritardo intero.

Testa il modello per l'eteroschedasticità condizionale autoregressiva (ARCH:
Autoregressive Conditional Heteroskedasticity) dell'ordine specificato. Se
la statistica del test LM ha un p-value inferiore a 0.10, viene anche
effettuata la stima ARCH. Se la varianza prevista di qualche osservazione
nella regressione ausiliaria non risulta positiva, viene usato il
corrispondente residuo al quadrato. Viene quindi calcolata la stima con i
minimi quadrati ponderati sul modello originale.

Si veda anche "garch".

Comando script: arch

# arma Estimation "Stima ARMA"

Se è selezionato dal menù Variabile, stima un modello autoregressivo a media
mobile univariato (ARMA: Autoregressive, Moving Average). Se è selezionato
dal menù Modello ("ARMAX"), stima un modello ARMAX, che contiene in più dei
regressori esogeni.

Il funzionamento predefinito utilizza la funzione ARMA "interna" di gretl;
nel caso di un modello ARMA univariato, è anche possibile usare X-12-ARIMA
(se è stato installato il pacchetto X-12-ARIMA per gretl).

L'algoritmo interno di gretl per ARMA è in gran parte dovuto a Riccardo
"Jack" Lucchetti: utilizza una procedura di massima verosimiglianza
condizionale, implementata attraverso la stima iterata con minimi quadrati
della regressione del prodotto esterno del gradiente (OPG). Si veda l'il
manuale di gretl per la logica della procedura. I coefficienti AR (e quelli
per gli eventuali regressori aggiuntivi) sono inizializzati usando una
auto-regressione OLS, mentre i coefficienti MA sono inizializzati a zero.

Il valore AIC mostrato nei modelli ARMA è calcolato secondo la definizione
usata in X-12-ARIMA, ossia

  AIC = -2L + 2k

dove L è la log-verosimiglianza e k è il numero totale di parametri stimati.
Il valore di "frequenza" mostrato insieme alle radici AR e MA è il valore di
lambda che risolve

  z = r * exp(i*2*pi*lambda)

dove z è la radice in questione e r è il suo modulo.

Comando script: arma

# boxplot Graphs "Grafici boxplot"

Questo tipo di grafici (da Tukey e Chambers) mostra la distribuzione di una
variabile. La "scatola" centrale (box) racchiude il 50 per cento centrale
dei dati, ossia è delimitato dal primo e terzo quartile. I "baffi"
(whiskers) si estendono fino ai valori minimo e massimo. Una linea
trasversale sulla scatola indica la mediana.

Nel caso dei grafici a tacca ("notches"), una tacca indica i limiti
dell'intervallo di confidenza approssimato al 90 per cento per la mediana,
ottenuto col metodo bootstrap.

Dopo ogni variabile specificata nel comando boxplot, è possibile aggiungere
un'espressione booleana tra parentesi per limitare il campione per la
variabile in questione. Occorre inserire uno spazio tra il nome o il numero
della variabile e l'espressione. Si supponga di avere dati sui salari di
uomini e donne e di avere una variabile dummy GENERE che vale 1 per gli
uomini e 0 per le donne. In questo caso, è possibile generare dei boxplot
comparativi usando la seguente riga nella finestra di dialogo dei boxplot:

	salario (GENERE=1) salario (GENERE=0)

Alcuni dettagli del funzionamento dei boxplot di gretl possono essere
controllati attraverso un file testuale chiamato .boxplotrc. Per ulteriori
dettagli, si veda il manuale di gretl.

Comando script: boxplot

# chow Tests "Chow"

Questo comando richiede un numero di osservazione (o una data, se il dataset
lo consente).

Va eseguito dopo una regressione OLS. Crea una variabile dummy che vale 1 a
partire dal punto di rottura specificato da osservazione fino alla fine del
campione, 0 altrove; inoltre crea dei termini di interazione tra questa
dummy e le variabili indipendenti originali, stima una regressione che
include questi termini e calcola una statistica F, prendendo la regressione
aumentata come non vincolata e la regressione originale come vincolata. La
statistica è appropriata per testare l'ipotesi nulla che non esista un break
strutturale in corrispondenza del punto di rottura specificato.

Comando script: chow

# coeffsum Tests "Test sulla somma dei coefficienti"

Questo comando richiede una lista di variabili, selezionate tra le variabili
indipendenti di un modello.

Calcola la somma dei coefficienti delle variabili nella lista e mostra
l'errore standard e il p-value per l'ipotesi nulla che la somma sia zero.

Si noti la differenza tra questo test e "omit", che assume come ipotesi
nulla l'uguaglianza a zero di tutti i coefficienti di un gruppo di variabili
indipendenti.

Comando script: coeffsum

# coint Tests "Test di cointegrazione di Engle-Granger"

Il test di cointegrazione di Engle-Granger svolge dei test Dickey-Fuller
aumentati sull'ipotesi nulla che ognuna delle variabili elencate abbia una
radice unitaria, usando l'ordine di ritardi specificato. Viene stimata la
regressione di cointegrazione e viene eseguito un test ADF sui residui di
questa regressione, mostrando anche la statistica di Durbin-Watson per la
regressione di cointegrazione. Si noti che i valori di tutte queste
statistiche test non possono essere confrontati con quelli delle solite
tavole statistiche.

Comando script: coint

# coint2 Tests "Test di cointegrazione di Johansen"

Esegue il test traccia di Johansen per la cointegrazione tra le variabili
elencate per l'ordine specificato. I valori critici sono calcolati con
l'approssimazione gamma di J. Doornik's (Doornik, 1998). Per i dettagli su
questo test, si veda Hamilton, Time Series Analysis (1994), Cap. 20.

La tabella seguente fornisce un esempio di interpretazione dei risultati del
test nel caso di 3 variabili. H0 denota l'ipotesi nulla, H1 l'ipotesi
alternativa e c il numero delle relazioni di cointegrazione.

                 Rango    Test traccia       Test Lmax
                          H0     H1          H0     H1
                 ---------------------------------------
                  0      c = 0  c = 3       c = 0  c = 1
                  1      c = 1  c = 3       c = 1  c = 2
                  2      c = 2  c = 3       c = 2  c = 3
                 ---------------------------------------

Comando script: coint2

# compact Dataset "Compattamento dei dati"

Quando viene aggiunta a un dataset una serie di frequenza maggiore, occorre
"compattare" la nuova serie. Ad esempio, una serie mensile deve essere
compattata per adattarsi a un dataset trimestrale.

Inoltre, a volte può essere necessario compattare un intero dataset
abbassandone la frequenza (ad esempio, prima di aggiungere al dataset una
variabile a frequenza minore).

Ci sono quattro opzioni per il compattamento:

  Media: i nuovi valori saranno la media aritmetica dei corrispondenti
  valori della serie a frequenza maggiore. Ad esempio, il valore per il
  primo trimestre del 1990 sarà la media dei valori di gennaio, febbraio e
  marzo del 1990.

  Somma: i nuovi valori saranno la somma dei corrispondenti valori della
  serie a frequenza maggiore. Ad esempio, il valore per il primo trimestre
  sarà la somma dei valori di gennaio, febbraio e marzo.

  Valori di fine periodo: il nuovo valore è l'ultimo valore corrispondente
  nella serie a frequenza maggiore. Ad esempio, il valore del primo
  trimestre del 1990 sarà quello del marzo 1990.

  Valori di inizio periodo: il nuovo valore è il primo valore corrispondente
  nella serie a frequenza maggiore. Ad esempio, il valore del primo
  trimestre del 1990 sarà quello del gennaio 1990.

Se si compatta un intero dataset, il metodo di compattamento scelto diventa
quello predefinito, ma se si è scelto un metodo di compattamento per una
certa variabile (nel menù "Variabile/Modifica attributi") viene usato quel
metodo al posto di quello predefinito. Se il metodo di compattamento è già
stato scelto per tutte le variabili, non viene presentata la scelta per il
metodo di compattamento predefinito.

# corc Estimation "Stima Cochrane-Orcutt"

Calcola le stime dei parametri usando la procedura iterativa di
Cochrane-Orcutt (si veda il Capitolo 9.4 di Ramanathan). La procedura si
ferma quando le stime consecutive del coefficiente di autocorrelazione
differiscono per meno di 0.001, oppure dopo 20 iterazioni.

Comando script: corc

# corrgm Statistics "Correlogramma"

Mostra i valori della funzione di autocorrelazione per la variabile
specificata (dal nome o dal numero). Si veda Ramanathan, Capitolo 11.7. È
definita come rho(u(t), u(t-s)) dove ut è la t-esima osservazione della
variabile u e s è il numero dei ritardi.

Vengono mostrate anche le autocorrelazioni parziali, ossia al netto
dell'effetto dei ritardi intermedi. Il comando produce anche un grafico del
correlogramma e mostra la statistica Q di Box-Pierce per testare l'ipotesi
nulla che la serie sia "white noise" (priva di autocorrelazione). La
statistica si distribuisce asintoticamente come chi-quadro con gradi di
libertà pari al numero di ritardi specificati.

Se viene specificato un valore max-ritardo, la lunghezza del correlogramma
viene limitata al numero di ritardi specificato, altrimenti viene scelta
automaticamente.

Comando script: corrgm

# cusum Tests "Test CUSUM"

Va eseguito dopo la stima di un modello OLS. Esegue il test CUSUM per la
stabilità dei parametri. Viene calcolata una serie di errori di previsione
(scalati) per il periodo successivo, attraverso una serie di regressioni: la
prima usa le prime k osservazioni e viene usata per generare la previsione
della variabile dipendente per l'osservazione k + 1; la seconda usa le prime
k + 1 osservazioni per generare una previsione per l'osservazione k + 2 e
così via (dove k è il numero dei parametri nel modello originale). Viene
mostrata, anche graficamente, la somma cumulata degli errori scalati di
previsione. L'ipotesi nulla della stabilità dei parametri è rifiutata al
livello di significatività del 5 per cento se la somma cumulata va al di
fuori delle bande di confidenza al 95 per cento.

Viene mostrata anche la statistica t di Harvey-Collier per testare l'ipotesi
nulla della stabilità dei parametri. Si veda il Capitolo 7 di Econometric
Analysis di Greene, per i dettagli.

Comando script: cusum

# dialog Estimation "Finestra di dialogo Modello"

Per selezionare la variabile dipendente, fare clic su una variabile nella
lista di sinistra e premere il pulsante "Scegli" con la freccia che punta
verso il riquadro della variabile dipendente. Selezionando la casella
"Imposta come predefinito", la variabile scelta verrà sempre pre-selezionata
come variabile dipendente durante le prossime aperture della finestra di
dialogo. Trucco: facendo doppio clic su una variabile sulla sinistra, viene
selezionata come variabile dipendente e impostata come scelta predefinita.

Per selezionare le variabili indipendenti, fare clic su di esse nella lista
di sinistra e premere il pulsante "Aggiungi" (o fare clic col pulsante
destro del mouse). È possibile selezionare più variabili contigue
trascinando il mouse; se le variabili da selezionare non sono contigue,
occorre fare clic tenendo prenuto il tasto Ctrl.

# export Dataset "Esportazione dei dati"

È possibile esportare dati in formato separato da virgole (CSV:
Comma-Separated Values), in modo che possano essere aperti con fogli
elettronici e molti altri programmi applicativi.

È anche possibile esportare i dati nei formati specifici di GNU R o GNU
octave. Per ulteriori informazioni in questi programmi (entrambi utili per
l'analisi statistica avanzata) si vedano i rispettivi siti web:
http://www.r-project.org/ e http://www.octave.org/

# factorized Graphs "Grafici X-Y con fattore"

Questo comando richiede che si selezionino tre variabili, l'ultima delle
quali deve essere una variabile dummy (con valori 1 o 0). La variabile Y è
rappresentata rispetto alla variabile X, con i punti colorati diversamente a
seconda del valore della terza variabile.

Esempio: si hanno dati sui salari e il livello di scolarità per un campione
di persone; si dispone anche di una variabile dummy che vale 1 per gli
uomini e 2 per le donne (come nel file data7-2 di Ramanathan). Un "Grafico
X-Y con fattore" di WAGE rispetto a EDUC usando la dummy GENDER mostrerà le
osservazioni che si riferiscono agli uomini in un colore e quelle delle
donne in un altro (insieme a una legenda per identificarli).

# fcasterr Prediction "Previsioni con errori standard"

Dopo aver stimato un modello OLS è possibile usare questo comando per
rappresentare i valori stimati su un intervallo di osservazioni specificato,
insieme agli errori standard stimati per queste previsioni e agli intervalli
di confidenza al 95 per cento.

Gli errori standard sono calcolati nel modo descritto da Wooldridge nel
capitolo 6 del suo Introductory Econometrics. Incorporano due fonti di
variabilità: la varianza associata al valore atteso della variabile
dipendente, condizionale ai valori dati delle variabili indipendenti, e la
varianza dei residui della regressione.

Comando script: fcasterr

# garch Estimation "Stima GARCH"

Stima un modello GARCH (Generalized Autoregressive Conditional
Heteroskedasticity) univariato, o, se sono specificate delle
variabili-indipendenti, includendo delle variabili esogene. L'equazione
della varianza condizionale è la seguente:

  h(t) = somma (i da 1 a q) a(i)*u(t-i) +  somma(j da 1 a p) b(j)*h(t-j)

L'algoritmo GARCH usato da gretl è in pratica quello di Fiorentini,
Calzolari e Panattoni (1996), usato per gentile concessione del Professor
Fiorentini.

Sono disponibili varie stime della matrice di covarianza dei coefficienti.
Il metodo predefinito è quello dell'Hessiana, a meno di non selezionare la
casella "Errori standard robusti", nel qual caso viene usata la matrice di
covarianza QML (White). Altre possibilità (ad es. la matrice di
informazione, o lo stimatore di Bollerslev-Wooldridge) possono essere
specificate con il comando "set".

Comando script: garch

# genr Dataset "Generazione di una nuova variabile"

Crea nuove variabili, di solito per mezzo di trasformazioni di variabili
esistenti. Si veda anche "diff", "logs", "lags", "ldiff", "multiply" e
"square" per le scorciatoie.

Gli operatori aritmetici supportati sono, in ordine di precedenza: ^
(esponenziale); *, / e % (modulo o resto); + e -.

Gli operatori Booleani disponibili sono (ancora in ordine di precedenza): !
(negazione), & (AND logico), | (OR logico), >, <, =, >= (maggiore o uguale),
<= (minore o uguale) e != (disuguale). Gli operatori Booleani possono essere
usati per costuire variabili dummy: ad esempio (x > 10) produce 1 se x > 10,
0 altrimenti.

Le funzioni supportate appartengono ai gruppi seguenti:

  Funzioni matematiche standard: abs, cos, exp, int (parte intera), ln
  (logaritmo naturale: log è un sinonimo), sin, sqrt (radice quadrata).

  Funzioni statistiche: max (valore massimo in una serie), min (minimo),
  mean (media aritmetica), median, var (varianza) sd (deviazione standard),
  sst (somma dei quadrati delle deviazioni dalla media), sum, cov
  (covarianza), corr (coefficiente di correlazione), pvalue, sort, cum
  (somma cumulata), resample (ricampiona una serie con rimpiazzo, utile per
  il bootstrap), hpfilt (filtro di Hodrick-Prescott: produce la componente
  di "ciclo" della serie).

  Funzioni per serie storiche: diff (differenza prima), ldiff
  (log-differenza, ossia la differenza prima dei logaritmi naturali). Per
  generare ritardi della variabile x, si può usare la sintassi "x(-N)", dove
  N rappresenta la lunghezza del ritardo desiderato; per generare anticipi
  si usi "x(+N)".

  Funzioni dataset: misszero (sostituisce con zero il codice delle
  osservazioni mancanti in una serie); zeromiss (l'operazione inversa di
  misszero); nobs (riporta il numero di osservazioni valide in una data
  serie); missing (per ogni osservazione, vale 1 se l'argomento ha un valore
  mancante, 0 altrimenti); ok (l'opposto di missing).

  Numeri pseudo-casuali: uniform, normal.

Tutte le funzioni viste sopra, con l'eccezione di cov, corr, pvalue, uniform
e normal hanno come unico argomento il nome di una variabile (attenzione:
non è possibile indicare le variabili con il loro numero identificativo in
una formula "genr") o un'espressione che si risolve in una variabie (ad es.
ln((x1+x2)/2)). cov e corr richiedono due argomenti e producono
rispettivamente il coefficiente di covarianza e di correlazione tra i due
argomenti. La funzione pvalue richiede gli stessi argomenti del comando
"pvalue", ma in questo caso occorre separare gli argomenti con delle
virgole. Questa funzione produce un p-value a una coda, che nel caso delle
distribuzioni normale e t è la "coda corta". Con la normale, ad esempio, sia
1.96 sia -1.96 daranno un risultato di circa 0.025.

uniform() e normal(), che non richiedono argomenti, producono delle serie
pseudo-casuali estratte dalle distribuzioni uniforme (0-1) e normale
standard (si veda anche il comando "set" con l'opzione seed). Le serie dalla
distribuzione uniforme sono generate usando il Mersenne Twister ; per le
serie dalla distribuzione normale, viene usato il metodo di Box e Muller
(1958), prendendo l'input dal Mersenne Twister.

Oltre agli operatori e alle funzioni mostrati, ci sono alcuni usi speciali
del comando "genr":

  "genr time" crea una variabile trend temporale (1,2,3,...) chiamata
  "time". "genr index" fa la stessa cosa, ma chiamando la variable index.

  "genr dummy" crea una serie di variabili dummy a seconda della periodicità
  dei dati. Ad esempio, nel caso di dati trimestrali (periodicità 4) il
  programma crea dummy_1, che vale 1 nel primo trimestre e 0 altrove,
  dummy_2 che vale 1 nel secondo trimestre e 0 altrove, e così via.

  "genr paneldum" crea una serie di variabili dummy da usare in un dataset
  di tipo panel -- si veda "panel".

  Alcune variabili interne che vengono generate durante il calcolo di una
  regressione possono essere recuperate usando "genr", nel modo seguente:

  $ess               somma dei quadrati degli errori
  $rsq               R-quadro
  $T                 numero delle osservazioni usate
  $df                gradi di libertà
  $trsq              TR-quadro (ampiezza del campione moltiplicata per 
                     R-quadro)
  $sigma             errore standard dei residui
  $aic               criterio di informazione di Akaike
  $lnl               log-verosimiglianza (dove è applicabile)
  $sigma             errore standard dei residui
  coeff(variabile)   coefficiente stimato per la variabile
  stderr(variabile)  errore standard stimato per la variabile
  rho(i)             coefficiente di autoregressione dei residui di ordine 
                     i-esimo
  vcv(x1,x2)         covarianza tra i coefficienti delle variabili x1 e x2 

Nota: nella versione a riga di comando del programma, i comandi "genr" che
estraggono dati relativi al modello si riferiscono sempre al modello stimato
per ultimo. Questo vale anche per la versione grafica del programma se si
usa "genr" nel "terminale di gretl" o si immette una formula usando
l'opzione "Definisci nuova variabile" nel menù Variabile della finestra
principale. Usando la versione grafica, però, è possibile anche estrarre i
dati da qualunque modello mostrato in una finestra (anche se non è il
modello più recente) usando il menù "Dati modello" nella finestra del
modello.

Le serie interne uhat e yhat contengono rispettivamente i residui e i valori
stimati dell'ultima regressione.

Sono disponibili due variabili dataset "interne": $nobs, che contiene il
numero di osservazioni nell'intervallo del campione attuale (che non è
necessariamente uguale al valore di $T, il numero delle osservazioni usate
per stimare l'ultimo modello) e $pd, che contiene la frequenza o la
periodicità dei dati (ad esempio 4 per dati trimestrali).

La variabile t serve da indice per le osservazioni. Ad esempio, genr dum =
(t=15) crea una variabile dummy che vale 1 per l'osservazione 15 e 0
altrove. La variabile obs è simile ma più flessibile: è possibile usarla per
isolare alcune osservazioni indicandole con una data o un nome. Ad esempio,
genr d = (obs>1986:4) o genr d = (obs="CA"). L'ultima forma richiede che
siano definite delle etichette, da usare tra virgolette doppie, per le
osservazioni.

È possibile estrarre dei valori scalari da una serie usando una formula genr
con la sintassi nome-variabile[osservazione]. Il valore di osservazione può
essere specificato con un numero o una data. Esempi: x[5], CPI[1996:01]. Per
i dati giornalieri occorre usare la forma AAAA:MM:GG, ad esempio
ibm[1970:01:23].

È possibile modificare una singola osservazione in una serie usando genr.
Per farlo, occorre aggiungere un numero di osservazione o una data valida
tra parentesi quadre al nome della variabile nel lato sinistro della
formula. Ad esempio: genr x[3] = 30 o genr x[1950:04] = 303.7.

La La tabella seguente mostra vari esempi di utilizzo di "genr", con alcune
note esplicative; ecco qualche esempio di utilizzo delle variabili dummy:

  Si supponga che x abbia valori 1, 2, o 3 e si desiderino tre variabili
  dummy, d1 = 1 se x = 1, e 0 altrove, d2 = 1 se x = 2 e così via. Per
  crearle, basta usare i comandi:

	    genr d1 = (x=1)
	    genr d2 = (x=2)
	    genr d3 = (x=3)

  Per creare z = max(x,y) usare

	    genr d = x>y
	    genr z = (x*d)+(y*(1-d))

  Formula               Commento
  -------               -------
  y = x1^3              x1 al cubo
  y = ln((x1+x2)/x3)    
  z = x>y               z(t) = 1 se x(t) > y(t), 0 altrove
  y = x(-2)             x ritardata di 2 periodi
  y = x(2)              x anticipata di 2 periodi
  y = diff(x)           y(t) = x(t) - x(t-1)
  y = ldiff(x)          y(t) = log x(t) - log x(t-1), il tasso di crescita 
                        istantaneo di x
  y = sort(x)           ordina x in senso crescente e la salva in y
  y = -sort(-x)         ordina x in senso decrescente
  y = int(x)            tronca x e salva il valore intero in y
  y = abs(x)            salva il valore assoluto di x
  y = sum(x)            somma i valori di x escludendo i valori mancanti -999
  y = cum(x)            cumulativa: y(t) = somma di x(s) per s da 1 a t 
  aa = $ess             imposta aa uguale alla somma dei quadrati degli errori 
                        dell'ultima regressione
  x = coeff(sqft)       estrae il coefficiente stimato per la variabile sqft 
                        nell'ultima regressione
  rho4 = rho(4)         estrae il coefficiente di autoregressione del quarto 
                        ordine dall'ultimo modello (presume un modello ar 
                        model)
  cvx1x2 = vcv(x1, x2)  estrae il coefficiente di covarianza stimato tra le 
                        variabili x1 e x2 dall'ultimo modello
  foo = uniform()       variabile pseudo-casuale uniforme nell'intervallo 0-1
  bar = 3 * normal()    variabile pseudo-casuale normale con mu = 0, sigma = 3
  samp = !missing(x)    vale 1 per le osservazioni dove il valore di x non è 
                        mancante.

Comando script: genr

# graphing Graphs "Grafici"

Gretl richiama un programma separato, gnuplot, per generare i grafici.
Gnuplot è un programma di grafica molto completo, con una miriade di
opzioni; gretl fornisce l'accesso, attraverso un'interfaccia grafica, a una
parte di queste opzioni, cercando di scegliere dei valori, ma è possibile
anche controllare l'aspetto di un grafico in tutti i suoi dettagli, se si
vuole.

Mentre un grafico viene visualizzato, facendo clic sulla finestra del
grafico si aprirà un menù pop-up con le seguenti opzioni:

  Salva come postscript: salva il grafico in formato encapsulated postscript
  (EPS)

  Salva come PNG: salva in formato Portable Network Graphics

  Salva alla sessione come icona: il grafico apparirà sotto forma di icona
  quando si seleziona "Visualizza Icone" dal menù Sessione

  Ingrandisci: permette di selezionare un'area all'interno del grafico per
  visualizzarla da vicino

  Stampa: permette di stampare il grafico direttamente (disponibile solo in
  Gnome e MS Windows)

  Copia negli appunti: permette di copiare il grafico per poi incollarlo in
  altri programmi Windows, come ad esempio MS Word (disponibile solo in MS
  Windows)

  Modifica: apre una finestra che permette di modificare vari dettagli
  dell'aspetto del grafico

  Chiudi: chiude la finestra del grafico

Se si conosce gnuplot e si desidera un controllo sull'aspetto del grafico
più preciso di quello fornito dalla finestra di modifica del grafico
(opzione "Modifica"), ci sono due possibilità:

  Una volta salvato il grafico come icona di sessione, facendo clic col
  tasto destro sull'icona si apre un altro menù pop-up. Una delle opzioni
  disponibili è "Comandi per modificare il grafico", che apre una finestra
  di modifica con i comandi di gnuplot. È possibile modificare questi
  comandi e salvarli per il futuro, oppure inviarli direttamente a gnuplot
  (con il comando "File/Invia a gnuplot" del menù della finestra di modifica
  dei comandi).

  Un altro modo per salvare i comandi del grafico (o per salvare il grafico
  in formati diversi da EPS o PNG) è quello di usare il comando "Modifica"
  nel menù pop-up del grafico per aprire la finestra di modifica del
  grafico, quindi fare clic su "File": verrà visualizzato un menù a discesa
  con i formati in cui è possibile salvare il grafico.

Per saperne di più su gnuplot, si veda
http://ricardo.ecn.wfu.edu/gnuplot.html oppure http://www.gnuplot.info

# graphpag Graphs "Pagina dei grafici"

La "pagina dei grafici" funzionerà solo se si è installato il sistema di
composizione LaTeX e si è in grado di generare e visualizzare file in
formato postscript.

Nella finestra della sessione, è possibile trascinare fino a otto grafici
sull'icona della pagina dei grafici. Facendo doppio clic sull'icona della
pagina dei grafici (o facendo clic col tasto destro e selezionando
"Mostra"), la pagina contenente i grafici selezionati verrà composta e
aperta con il proprio visualizzatore di file postscript, da cui sarà
possibile stamparla.

Per pulire la pagina dei grafici, fare clic col tasto destro sull'icona e
selezionare "Pulisci".

Su sistemi diversi da MS Windows, può essere necessario modificare
l'impostazione del programma per visualizzare il postscript, che si trova
nella sezione "Programmi" della finestra di dialogo delle Preferenze di
gretl (nel menù File della finestra principale).

# 3-D Graphs "Grafici tridimensionali"

Questa funzionalità migliora se è stata installata una versione di gnuplot
pari o superiore alla 3.8, che consente di manipolare il grafico 3D con il
mouse (ruotandolo ed allungando o riducendo gli assi).

Nella composizione di un grafico 3D, si noti che l'asse Z sarà l'asse
verticale, quindi se si ha una variabile dipendente che si pensa possa
essere influenzata da due variabili indipendenti, è meglio mettere la
variabile dipendente sull'asse Z e le altre due variabili sugli assi X e Y.

A differenza di molti altri grafici di gretl, i grafici 3D sono controllati
da gnuplot invece che da gretl, quindi il menù di modifica dei grafici in
questo caso non è disponibile.

# hausman Tests "Test di Hausman (diagnosi panel)"

Questo test è disponibile solo dopo aver stimato un modello con il comando
"pooled" (si veda anche "panel" e "setobs"). Testa il semplice modello
"pooled" (con tutte le osservazioni considerate indistintamente) contro le
principali alternative: il modello a effetti fissi e quello a effetti
casuali.

Il modello a effetti fissi aggiunge una variabile dummy per tutte le unità
cross section tranne una, permettendo così all'intercetta della regressione
di variare per ogni unità. Viene poi eseguito un test F per la
significatività congiunta di queste dummy. Il modello a effetti casuali
scompone la varianza dei residui in due parti: una specifica all'unità cross
section e una specifica all'osservazione particolare (la stima può essere
eseguita solo se il numero delle unità cross section nel dataset è maggiore
del numero dei parametri da stimare). La statistica LM di Breusch-Pagan
testa l'ipotesi nulla (che il modello pooled OLS sia adeguato) contro
l'alternativa a effetti casuali.

Può accadere che il modello pooled OLS sia rifiutato nei confronti di
entrambe le alternative, a effetti fissi o casuali. A patto che gli errori
specifici di unità o di gruppo siano non correlati con le variabili
indipendenti, lo stimatore a effetti casuali è più efficiente dello
stimatore a effetti fissi; nel caso contrario lo stimatore a effetti casuali
non è consistente e deve essergli preferito lo stimatore a effetti fissi.
L'ipotesi nulla per il test di Hausman è che l'errore specifico di gruppo
non sia correlato con le variabili indipendenti (e quindi che il modello a
effetti casuali sia preferibile). Un basso p-value per questo test
suggerisce di rifiutare il modello a effetti casuali in favore del modello a
effetti fissi.

Comando script: hausman

# hccm Estimation "Stima HCCM"

Matrice di covarianza coerente con l'eteroschedasticità (HCCM:
Heteroskedasticity-Consistent Covariance Matrix); questo comando esegue una
regressione dove i coefficienti sono stimati con la procedura OLS standard,
ma gli errori standard delle stime dei coefficienti sono calcolati in modo
da essere robusti rispetto all'eteroschedasticità, ossia usando la procedura
"jackknife" di MacKinnon-White.

Comando script: hccm

# hilu Estimation "Stima Hildreth-Lu"

Calcola le stime dei parametri per il modello specificato usando la
procedura di ricerca di Hildreth-Lu (ottimizzata con la procedura CORC),
progettata per correggere l'effetto della correlazione seriale nel termine
di errore. Viene mostrato un grafico della somma dei quadrati degli errori
per il modello trasformato rispetto ai valori di rho da -0.99 a 0.99.

Comando script: hilu

# hsk Estimation "Stime corrette per l'eteroschedasticità"

Stima una regressione OLS e ne salva i residui. I logaritmi dei quadrati di
questi residui diventano la variabile dipendente di una regressione
ausiliaria che ha come regressori le variabili indipendenti originali e i
loro quadrati. I valori stimati dalla regressione ausiliaria sono quindi
usati per costruire una serie di pesi, usati per ri-stimare il modello
originale con la procedura dei minimi quadrati ponderati. Viene riportato il
risultato finale.

La serie dei pesi è composta da 1/sqrt(exp(y*)), dove y* denota i valori
stimati dalla regressione ausiliaria.

Comando script: hsk

# label Dataset "Modifica degli attributi di una variabile"

In questa finestra di dialogo è possibile:

* Rinominare una variabile.

* Aggiungere o modificare una descrizione della variabile, che appare
accanto al nome della variabile nella finestra principale di gretl.

* Aggiugere o modificare il "nome per i grafici" della variabile. Questa
stringa (lunga al massimo 19 caratteri) viene usata al posto del nome della
variabile quando questa compare in un grafico. Così, ad esempio, è possibile
associare una stringa più comprensibile come "Tariffe telefoniche" a un nome
criptico come "tartel".

* Impostare (nel caso di un dataset di serie storiche) il metodo di
compattamento per la variabile, che verrà usato se si decide di ridurre la
frequenza del dataset, o se si importa la variabile da un dataset che ha una
frequenza maggiore di quella del dataset in uso.

Comando script: label

# lad Estimation "Stima con minime deviazioni assolute"

Calcola una regressione che minimizza la somma delle deviazioni assolute dei
valori stimati dai valori effettivi della variabile dipendente. Le stime dei
coefficienti sono derivate usando l'algoritmo del simplesso di
Barrodale-Roberts; viene mostrato un messaggio di avvertimento se la
soluzione non è unica. Gli errori standard sono derivati attraverso la
procedura bootstrap con 500 estrazioni.

Comando script: lad

# leverage Tests "Test per le osservazioni influenti"

Deve seguire immediatamente un comando "ols". Calcola il "leverage" (h,
compreso tra 0 e 1) di ogni osservazione nel campione su cui è stato stimato
il precedente modello. Mostra il residuo (u) per ogni osservazione assieme
al leverage corrispondente e a una misura della sua influenza sulla stima:
u*h/(1-h). I "punti di leverage" per cui il valore di h supera 2k/n (dove k
è il numero dei parametri stimati e n è l'ampiezza del campione) sono
indicati con un asterisco. Per i dettagli sui concetti di leverage e
influenza, si veda Davidson e MacKinnon (1993, capitolo 2).

Vengono mostrati anche i valori DFFITS: questi sono "residui studentizzati"
(ossia i residui previsti, divisi per i propri errori standard) moltiplicati
per sqrt[h/(1 - h)]. Per una discussione dei residui studentizzati e dei
valori DFFITS si veda G. S. Maddala, Introduction to Econometrics, capitolo
12 e anche Belsley, Kuh e Welsch (1980). In breve, i "residui previsti" sono
la differenza tra il valore osservato e il valore stimato della variabile
dipendente all'osservazione t, ottenuti da una regressione in cui
quell'osservazione è stata omessa (oppure in cui è stata aggiunta una
variabile dummy che vale 1 solo per l'osservazione t); il residuo
studentizzato si ottiene dividendo il residuo previsto per il proprio errore
standard.

L'icona "+" in cima alla finestra del test di leverage apre una finestra di
dialogo che permette di salvare nel dataset in uso una o più delle variabili
del test.

Comando script: leverage

# lmtest Tests "Test LM"

Questo comando racchiude vari test di ipotesi. La caratteristica comune è
che ttti i test prevedono la stima di una regressione ausiliaria in cui la
variabile dipendente è il residuo di una regressione "originale". Le
variabili indipendenti della regressione ausiliaria comprendono quelle della
regressione originale e alcuni termini aggiuntivi. La statistica test è
calcolata come (ampiezza campionaria * R-quadro) della regressione
ausiliaria: si distribuisce come chi-quadro con gradi di libertà pari al
numero dei termini aggiuntivi, sotto l'ipotesi nulla che essi non abbiano
potere esplicativo sui residui. Un valore "elevato" del chi-quadro (ossia un
basso p-value) suggerisce di rifiutare questa ipotesi nulla.

Comando script: lmtest

# logistic Estimation "Stima logistica"

Regressione logistica: esegue una regressione OLS usando la trasformazione
logistica sulla variabile dipendente:

  log(y/(ymax - y))

La variabile dipendente dev'essere strettamente positiva. Se è una frazione
decimale, compresa tra 0 e 1, il valore predefinito per ymax (il massimo
asintotico della variabile dipendente) è 1. Se la variabile dipendente è una
percentuale, compresa tra 0 e 100, il valore predefinito di ymax è 100. È
possibile indicare un diverso valore massimo nella finestra di dialogo: il
valore deve essere maggiore di tutti i valori osservati della variabile
dipendente.

I valori stimati e i residui della regressione sono trasformati
automaticamente usando

  y = ymax / (1 + exp(-x))

dove x rappresenta un valore stimato oppure un residuo della regressione
OLS, usando la variabile dipendente trasformata. I valori riportati sono
dunque confrontabili con la variabile dipendente originale.

Si noti che se la variabile dipendente è binaria, occorre usare il comando
"logit" invece di questo comando.

Comando script: logistic

# logit Estimation "Stima logit"

Regressione binomiale logit. La variabile dipendente deve essere binaria. Le
stime di massima verosimiglianza dei coefficienti per le
variabili-indipendenti sono ottenute con il metodo EM
(Expectation-Maximization, si veda Ruud, 2000, capitolo 27). Visto che il
modello è nonlineare, le pendenze dipendono dai valori delle variabili
indipendenti: le pendenze riportate sono valutate nelle medie di queste
variabili. La statistica chi-quadro testa l'ipotesi nulla che tutti i
coefficienti tranne la costante siano pari a zero.

Per condurre un'analisi delle proporzioni (dove la variabile dipendente è la
proporzione dei casi che hanno una certa caratteristica in ogni
osservazione, invece che una variabile binaria che indica se la
caratteristica è presente o no), non bisogna usare il comando "logit", ma
occorre costruire la variabile logit (ad es. "genr lgt_p = log(p/(1 - p))")
e usare questa come variabile dipendente in una regressione OLS; si veda
Ramanathan, capitolo 12.

Comando script: logit

# markers Dataset "Aggiunta di marcatori"

Questo comando richiede il nome di un file che contiene "marcatori" per le
osservazioni, ossia brevi stringhe identificative per singole osservazioni
del dataset (ad esempio nomi di paesi o città, o altri codici), che possono
essere lunghe fino a 8 caratteri. Il file deve contenere un marcatore per
riga e devono esserci tanti marcatori quante sono le osservazioni nel
dataset corrente. Se queste condizioni sono rispettate e se il file
specificato esiste, i marcatori verranno aggiunti al dataset e saranno
visibili scegliendo "Mostra valori" dal menù "Dati" di gretl.

# meantest Tests "Test per la differenza delle medie"

Calcola la statistica t per l'ipotesi nulla che le medie della popolazione
siano uguali per due variabili selezionate, mostrando il suo p-value. Il
comando può essere eseguito con o senza l'ipotesi che le varianze delle due
variabili siano uguali (anche se questo è rilevante per la statistica test
solo se le due variabili contengono un diverso numero di osservazioni
valide).

Comando script: meantest

# missing Dataset "Valori dati mancanti"

Imposta un valore numerico che sarà interpretato come "mancante" o "non
disponibile", per una serie particolare (nel menu Variabile) o globalmente
per l'intero dataset (nel menu Campione).

Gretl ha un codice interno per i valori mancanti, che non sempre può
coincidere con quello usato dai dati importati. Ad esempio, se una serie usa
il valore -1 col significato di "non disponibile", è possibile selezionare
"Imposta codice valori mancanti" nel menù Variabile e immettere il valore
"-1" (senza le virgolette); gretl interpreterà quindi i valori -1 come
osservazioni mancanti.

# modeltab Utilities "Tabella modelli"

Nella ricerca econometrica si è soliti stimare vari modelli con una
variabile dipendente comune, che differiscono tra loro per le variabili
indipendenti o per lo stimatore usato. In questa situazione è comodo poter
rappresentare i risultati delle regressioni sotto forma di una tabella dove
ogni colonna contiene i risultati (stime dei coefficienti e errori standard)
per un dato modello e ogni riga contiene le stime per una certa variabile
nei differenti modelli.

Gretl dà la possibilità di costruire una tabella simile (e di esportarla in
testo semplice, LaTeX o RTF - Rich Text Format). Ecco come fare:

1. Stimare un modello che si vuole includere nella tabella e selezionare,
   nel menù File della finestra di visualizzazione del modello, "Salva alla
   sessione come icona" o "Salva come icona e chiudi".

2. Ripetere il punto 1 per gli alri modelli da includere nella tabella (fino
   a un massimo di sei modelli).

3. Completata la stima dei modelli, aprire l'icona della sessione di gretl
   (selezionando "Visualizza Icone" nel menù Sessione della finestra
   principale di gretl, o facendo clic su "Icone di sessione" sulla barra
   degli strumenti di gretl).

4. La finestra delle icone di sessione contiene un'icona chiamata "Tabella
   Modelli". Per aggiungere alla tabella modelli il modello che deve
   apparire nella colonna più a sinistra della tabella, basta trascinare
   l'icona del modello sull'icona della Tabella Modelli, oppure fare clic
   col tasto destro sull'icona del modello e selezionare "Aggiungi alla
   tabella modelli" dal menù pop-up.

5. Ripetere il punto 4 per gli altri modelli da aggiungere alla tabella. Il
   secondo modello scelto apparirà nella seconda colonna da sinistra della
   tabella, e così via.

6. Ultimata la composizione della tabella, è possibile visualizzarla facendo
   doppio clic sulla sua icona. Per copiare la tabella negli appunti in uno
   dei formati supportati, basta fare clic sul menù Modifica della finestra
   in cui appare la tabella.

7. Se l'ordinamento dei modelli nella tabella non è quello voluto, fare clic
   col tasto destro sull'icona della tabella modelli e selezionare
   "Pulisci", quindi tornare al punto 4.

Comando script: modeltab

# mpols Estimation "Stima OLS a precisione multipla"

Calcola le stime OLS per il modello indicato usando aritmetica in virgola
mobile a precisione multipla. Questo comando è disponibile solo se gretl è
compilato con il supporto per la libreria Gnu Multiple Precision (GMP).

Comando script: mpols

# nls Estimation "Stima minimi quadrati non-lineari"

Esegue una stima con minimi quadrati non-lineari (NLS: Nonlinear Least
Squares) usando una versione modificata dell'algoritmo di
Levenberg-Marquandt. Occorre fornire una specificazione di funzione e si
raccomanda di specificare anche le espressioni per le derivate di questa
funzione rispetto a ognuno dei parametri, se possibile.

Esempio: si supponga di avere un dataset con le variabili C e Y (ad es.
greene11_3.gdt) e di voler stimare una funzione di consumo non-lineare del
tipo:

  C = alfa + beta * Y^gamma

I parametri alfa, beta e gamma devono per prima cosa essere aggiunti al
dataset, indicando un valore iniziale; è possibile farlo usando il comando
genr o attraverso i menù. È possibile inserire i comandi "genr" appropriati
nella finestra di dialogo della specificazione NLS prima di specificare la
funzione.

Nella finestra NLS si inseriranno le righe seguenti:

	C = alfa + beta * Y^gamma
	deriv alfa = 1
	deriv beta = Y^gamma
	deriv gamma = beta * Y^gamma * log(Y)

La prima riga indica la specificazione della funzione, mentre le righe
successive forniscono le derivate della funzione rispetto ad ognuno dei tre
parametri. Se non vengono fornite le righe "deriv", viene calcolata
un'approssimazione numerica del Jacobiano.

Se i parametri alfa, beta e gamma non sono stati dichiarati in precedenza, è
possibile premettere alle righe viste sopra le seguenti:

	genr alpha = 1
	genr beta = 1
	genr gamma = 1

Per ulteriori dettagli sulla stima NLS si veda il il manuale di gretl.

Comando script: nls

# nulldata Dataset "Creazione di un dataset vuoto"

Crea un dataset "vuoto", che contiene solo una costante e una variabile
indice, con periodicità 1 e il numero indicato di osservazioni. Ad esempio,
è possibile creare un dataset a scopo di simulazione usando alcuni comandi
"genr" (come "genr uniform()" e "genr normal()") per generare dati di prova.
Questo comando può essere usato insieme a "loop". Si veda anche l'opzione
"seed" del comando "set".

Comando script: nulldata

# ols Estimation "Stima minimi quadrati ordinari"

Calcola le stime minimi quadrati ordinari (OLS: Ordinary Least Squares) per
il modello specificato.

Oltre alle stime dei coefficienti e agli errori standard, il programma
mostra i p-value per le statistiche t (a due code) e F. Un p-value inferiore
a 0.01 indica significatività al livello dell'1 per cento ed è denotato con
***. ** indica invece la significatività tra l'1 e il 5 per cento, mentre *
indica un livello di significatività tra il 5 e il 10 per cento. Vengono
mostrate anche le statistiche di selezione del modello (descritte in
Ramanathan, capitolo 4.3).

Usando l'opzione --no-df-corr la correzione per i gradi di libertà non viene
applicata nel calcolo della varianza stimata dell'errore (e quindi anche
dell'errore standard delle stime dei parametri).

L'opzione --print-final è utilizzabile solo nel contesto di un "loop".
L'effetto è quello di eseguire la regressione in modo silenzioso per tutte
le iterazioni del loop tranne l'ultima. Si veda il manuale di gretl per i
dettagli.

Comando script: ols

# omit Tests "Test per le variabili omesse"

Questo comando deve seguire un comando di stima. Omette le variabili
indicate dal modello precedente e stima il nuovo modello. Se viene omessa
più di una variabile, viene mostrata la statistica F di Wald per le
variabili omesse, insieme al suo p-value (solo per la procedura OLS). Un
p-value inferiore a 0.05 indica che i coefficienti sono congiuntamente
significativi al livello del 5 per cento.

Comando script: omit

# online Dataset "Accesso ai database online"

Gretl può accedere ai database della Wake Forest University (se il proprio
computer è connesso a internet).

Dal menù "File, Consulta database", selezionare "Sul server di database":
apparirà una finestra che mostra i database disponibili alla Wake Forest (a
seconda della località e della velocità della connessione internet,
l'operazione può richiedere alcuni secondi). Oltre al nome del database e a
una breve descrizione, apparirà un campo "Stato", che mostra se il database
è stato installato localmente (sul disco del computer), e, in caso positivo,
se la versione installata è aggiornata a quella disponibile sul server.

Se un database è stato installato localmente ed è aggiornato, non c'è nessun
vantaggio nell'accedervi attraverso il server, mentre per un database non
installato o non aggiornato, può essere utile scaricare un elenco delle
serie di dati, facendo clic su "Scarica l'elenco delle serie". Apparirà una
nuova finestra da cui è possibile visualizzare i valori di una serie scelta,
vederne il grafico o importarle in gretl. È possibile effettuare queste
operazioni usando il menù "Serie", o attraverso il menù pop-up che appare
facendo clic col tasto destro su una serie. È anche possibile cercare
nell'elenco una variabile in particolare, usando il comando "Trova" del
menù.

Per poter accedere a un database anche offline, basta selezionare la riga
del database desiderato nella prima finestra e premere il pulsante
"Installa". Il database verrà scaricato in formato compresso, verrà
decompresso e installato sul proprio disco fisso, in modo da poter essere
caricato usando il menù "File, Consulta database, gretl".

# panel Dataset "Struttura dei dati panel"

Le due opzioni "--time-series" e "--cross-section" indicano a gretl come
sono organizzati i dati, in modo da poter usare il comando "Pooled OLS" e i
relativi comandi di diagnosi panel.

"Pila di dati serie storiche" significa che i dati nel file sono organizzati
in blocchi di serie storiche per ognuna delle unità cross section. Ad
esempio, le prime 10 righe dei dati rappresentano i valori di alcune
variabili per il paese A lungo 10 periodi, le 10 righe seguenti i valori per
il paese B lungo 10 periodi, e così via.

"Pila di dati cross section" significa che i dati nel file sono organizzati
in blocchi di dati cross section per ognuno dei periodi temporali. Ad
esempio, le prime 6 righe dei dati rappresentano i valori di alcune
variabili per i paesi da A a F nell'anno 1970, le 6 righe seguenti i valori
per gli stessi paesi nel 1971, e così via.

Se si salva il file di dati dopo aver impostato questo attributo,
l'informazione verrà mantenuta nel file e non sarà necessario impostare di
nuovo l'attributo in futuro.

Si noti che questo comando non modifica la struttura del dataset panel, ma
imposta solo il modo in cui gretl interpreta il dataset. Per convertire un
dataset dal formato "pila di cross section" a quello "pila di serie
storiche" o viceversa, occorre usare il comando "Ristruttura panel".

Comando script: panel

# pca Statistics "Analisi delle componenti principali"

Analisi delle componenti principali. Mostra gli autovalori della matrice di
correlazione per le variabili nella lista-variabili, insieme alla
proporzione della varianza comune spiegata da ogni componente. Mostra anche
i corrispondenti autovettori (o "pesi della componente").

Usando l'opzione --save, le componenti con autovalori maggiori di 1.0
vengono salvati nel dataset come variabili, con i nomi PC1, PC2 e così via.
Queste variabili artificiali sono definite come la somma del peso della
componente moltiplicato per Xi standardizzato, dove Xi denota la i-esima
variabile nella lista-variabili.

Usando l'opzione --save-all, vengono salvate tutte le componenti, come
descritto sopra.

Comando script: pca

# pergm Statistics "Periodogramma"

Calcola e mostra (graficamente se non si è in modalità batch) lo spettro
della variabile specificata. Senza l'opzione --bartlett, viene mostrato il
periodogramma nel campione, usando l'opzione, lo spettro viene stimato
usando una finestra di Bartlett per i ritardi di lunghezza 2*sqrt(T) (dove T
è l'ampiezza del campione); si veda il capitolo 18 di Econometric Analysis
di Greene. Se viene mostrato il periodogramma del campione, viene mostrato
anche il test t per l'integrazione frazionale della serie ("memoria lunga"):
l'ipotesi nulla è che l'ordine di integrazione sia zero.

Comando script: pergm

# pooled Estimation "Stima pooled OLS"

Stima un modello con OLS (si veda "ols" per i dettagli sulla sintassi) e lo
marca come modello pooled o panel, rendendo disponibile il comando
"hausman".

Comando script: pooled

# probit Estimation "Stima probit"

Stima un modello probit, per variabili dipendenti binarie. Le stime di
massima verosimiglianza dei coefficienti delle variabili-indipendenti sono
ottenute con i minimi quadrati iterati (il metodo EM,
Expectation-Maximization). Poiché il modello è non-lineare, le pendenze
dipendono dai valori delle variabili indipendenti: le pendenze riportate
sono valutate nelle medie di queste variabili. La statistica chi-quadro
testa l'ipotesi nulla che tutti i coefficienti tranne la costante siano pari
a zero.

Il probit per l'analisi delle proporzioni non è ancora stato implementato in
gretl.

Comando script: probit

# pwe Estimation "Stimatore di Prais-Winsten"

Calcola le stime dei parametri usando la procedura Prais-Winsten,
un'implementazione GLS sviluppata per gestire l'autocorrelazione del primo
ordine nel termine di errore. La procedura viene iterata, così come in
"corc"; la differenza è che mentre Cochrane-Orcutt tralascia la prima
osservazione, Prais-Winsten ne fa uso. Per i dettagli, si veda per esempio
il capitolo 13 di Econometric Analysis (2000) di Greene.

Comando script: pwe

# reset Tests "Test RESET di Ramsey"

Va eseguito dopo la stima di un modello via OLS. Esegue il test RESET di
Ramsey per la specificazione del modello (non-linearità), aggiungendo alla
regressione il quadrato e il cubo dei valori stimati e calcolando la
statistica F per l'ipotesi nulla che i coefficienti dei due termini aggiunti
siano pari a zero.

Comando script: reset

# restrict Tests "Test per vincoli lineari"

Valuta un insieme di vincoli lineari sui parametri dell'ultimo modello
stimato. In modalità batch, l'insieme di vincoli deve essere racchiuso tra i
comandi "restrict" e "end restrict", mentre in modalità grafica queste righe
possono essere omesse dalla finestra di dialogo che definisce i vincoli.

Ogni vincolo nell'insieme va indicato sotto forma di equazione con una
combinazione lineare dei parametri al primo membro e un valore numerico al
secondo. I parametri sono indicati con la sintassi bN, dove N rappresenta la
posizione nella lista dei regressori, a partire da zero. Ad esempio, b1
indica il secondo parametro della regressione.

I termini bN a partire dal secondo possono essere prefissati da un
moltiplicatore numerico, usando il segno * per indicare la moltiplicazione,
ad esempio 3.5*b4.

Ecco un esempio di un insieme di vincoli:

	restrict
	 b1 = 0
	 b2 - b3 = 0
	 b4 + 2*b5 = 1
	end restrict

I vincoli sono valutati attraverso un test F di Wald, usando la matrice di
covarianza dei coefficienti del modello in questione.

Comando script: restrict

# rmplot Graphs "Grafici range-mean"

Grafici Range-mean: questo comando crea un semplice grafico che aiuta a
capire se una serie storica y(t) ha varianza costante o no. L'intero
campione t=1,...,T viene diviso in piccoli sotto-campioni di dimensione
arbitraria k. Il primo sotto-campione è formato da y(1), ... ,y(k), il
secondo da y(k+1), ... , y(2k), e così via. Per ogni sotto-campione, vengono
calcolati la media e il campo di variazione (range: il valore massimo meno
quello minimo) e viene costruito un grafico con le medie sull'asse
orizzontale e i campi di variazione su quello verticale, in modo che ogni
sotto-campione sia rappresentato da un punto sul piano. Se la varianza della
serie è costante, ci si aspetta che il campo di variazione del
sotto-campione sia indipendente dalla media del sotto-campione; se i punti
si dispongono su una linea crescente, la varianza della serie cresce al
crescere della media, viceversa se i punti si dispongono su una linea
decrescente.

Oltre al grafico, gretl mostra anche le medie e i campi di variazione per
ogni sotto-campione, insieme al coefficiente di pendenza della regressione
OLS del campo di variazione sulla media e il p-value per l'ipotesi nulla che
la pendenza sia zero. Se il coefficiente di pendenza è significativo al
livello del 10 per cento, viene mostrata sul grafico la linea stimata della
regressione del campo di variazione sulla media.

Comando script: rmplot

# runs Tests "Test delle successioni"

Esegue il test non parametrico "delle successioni" per la casualità della
variabile specificata. Ad esempio, per testare la casualità delle deviazioni
dalla mediana per una variabile chiamata x1, con una mediana diversa da
zero, eseguire i comandi seguenti:

	genr signx1 = x1 - median(x1)
	runs signx1

Comando script: runs

# sampling Dataset "Impostazione del campione"

Il menù Campione offre vari modi di selezionare un sotto-campione dal
dataset in uso.

Scegliendo "Campione/Imposta in base a dummy...", viene chiesto di scegliere
una variabile dummy (indicatrice), che può assumere solo valori 0 o 1 per
ogni osservazione. Il campione verrà limitato alle osservazioni per cui la
variabile dummy vale 1.

Scegliendo "Campione/Imposta in base a condizione...", viene chiesto di
inserire un'espressione Booleana (logica), dello stesso tipo di quella che
si userebbe per definire una variabile dummy. Ad esempio, l'espressione
"sqft > 1400" selezionerà solo le osservazioni per cui la variabile sqft ha
un valore maggiore di 1400. Le condizioni possono essere concatenate con gli
operatori logici "&" (AND) e "|" (OR) e possono essere negate usando "!"
(NOT).

Il comando "Campione/Scarta valori mancanti" ridefinisce il campione in modo
da escludere tutte le osservazioni per cui i valori di una o più variabili
sono mancanti (lasciando nel campione solo i casi completi).

Per selezionare le osservazioni per cui solo una particolare variabile non
ha valori mancanti, occorre usare "Campione/Imposta in base a condizione..."
e inserire la condizione Booleana "!missing(nome-variabile)" (sostituire
"nome-variabile" con il nome della variabile che si intende usare).

Se sono state associate etichette alle osservazioni, è possibile escludere
una particolare osservazione dal campione impostando una condizione del tipo
obs!="Francia". L'etichetta dell'osservazione deve essere racchiuso tra
virgolette doppie.

Occore tenere presente che ridefinendo il campione basandosi su una
variabile dummy, un'espressione Booleana o sul criterio delle osservazioni
mancanti, tutte le informazioni "strutturali" contenute nel file con la
descrizione dei dati (riguardanti la struttura di serie storiche o di panel
dei dati) vengono perse. È possibile reimpostare la struttura originale con
"Campione/Imposta frequenza e inizio...".

Si veda il manuale di gretl per maggiori dettagli.

# scatters Graphs "Grafici a dispersione multipli"

Produce grafici a dispersione della "Variabile asse Y" selezionata rispetto
ad ognuna delle "Variabili asse X" selezionate. Questi gruppi di grafici
sono utili nell'analisi esplorativa dei dati. È possibile creare fino a sei
grafici alla volta, eventuali variabili in sovrappiù saranno ignorate.

Comando script: scatters

# seed Programming "Seme dei numeri casuali"

Richiede un argomento intero. Imposta il seme del generatore di numeri
pseudo-casuali usato dalle opzioni Variabile casuale uniforme e normale nel
menù Dati, Aggiungi variabili. Di solito il seme è impostato al momento
dell'avvio del programma usando l'orologio di sistema, ma per ottenere
sequenze ripetibili di numeri pseudo-casuali occorre impostarlo manualmente.

# setobs Dataset "Frequenza e osservazione iniziale"

Questo comando forza il programma a interpretare il dataset in uso come
serie storiche o panel, invece che come serie semplici non datate. Servono
due parametri: una frequenza intera e una stringa che indica l'osservazione
iniziale (di solito una data). Ecco alcuni esempi:

  4 1990:1      Interpreta i dati come trimestrali a partire dal 1990, primo 
                trimestre
  12 1978:03    Interpreta i dati come mensili a partire da Marzo 1978
  20 1:01       Frequenza 20, inizio all'osservazione 1.01 (dati panel)
  5 1972/01/20  Dati giornalieri (settimane di 5 giorni), a partire dal 20 
                Gennaio 1972
  7 2002/01/20  Dati giornalieri (settimane di 7 giorni), a partire dal 20 
                Gennaio 2002

Comando script: setobs

# setmiss Dataset "Codice dei valori mancanti"

Imposta un valore numerico che verrà interpretato come "mancante" o "non
applicabile", per una particolare serie (sotto il menù Variabile) o
globalmente per l'intero dataset (sotto il menù Campione).

Gretl ha un codice interno per i valori mancanti, che non sempre può
coincidere con quello usato dai dati importati. Ad esempio, se una serie usa
il valore -1 col significato di "non disponibile", è possibile selezionare
"Imposta codice valori mancanti" nel menù Variabile e immettere il valore
"-1" (senza le virgolette); gretl interpreterà quindi i valori -1 come
osservazioni mancanti.

Comando script: setmiss

# spearman Statistics "Correlazione di rango di Spearman"

Mostra il coefficiente di correlazione di rango di Spearman per una coppia
di variabili. Le variabili non devono essere state ordinate manualmente in
precedenza, se ne occupa la funzione.

L'ordinamento automatico è dal massimo al minimo (ossia il valore massimo
nei dati assume il rango 1). Se occorre invertire l'ordinamento, creare una
variabile che è il negativo della variabile originale, ad esempio:

	genr altx = -x
	spearman altx y

Comando script: spearman

# store Dataset "Salvataggio dei dati"

Salva l'intero dataset, o un sottoinsieme delle variabili se è stata
indicata una lista-variabili, nel file indicato con file-dati.

L'impostazione predefinita è di salvare i dati nel formato "interno" di
gretl, ma le opzioni del comando permettono di usare formati alternativi. I
dati CSV (Comma-Separated Values, dati separati da virgole) possono essere
letti dai programmi di foglio elettronico e possono essere modificati con un
editor di testi. I formati Octave, R e PcGive sono destinati ad essere usati
con i rispettivi programmi. La compressione con gzip può essere utile per
grandi dataset. Si veda il il manuale di gretl per i dettagli sui vari
formati.

Si noti che le variabili scalari non saranno salvate automaticamente: per
salvarle occorre includerle esplicitamente nella lista-variabili.

Comando script: store

# tobit Estimation "Stima Tobit"

Stima un modello Tobit. Il modello può essere appropriato quando la
variabile dipendente è "troncata". Ad esempio, vengono osservati valori
positivi o nulli della spesa dei consumatori per beni durevoli, ma non
valori negativi; tuttavia le decisioni di spesa possono essere pensate come
derivanti da una propensione al consumo, sottostante e non osservata, che
può anche essere negativa in alcuni casi. Per i dettagli si veda il capitolo
20 di Econometric Analysis di Greene.

Comando script: tobit

# tsls Estimation "Stima minimi quadrati a due stadi"

Questo comando richiede la scelta di due liste di variabili; le variabili
indipendenti che appaiono nel modello e un elenco di "strumenti". Questi
ultimi comprendono le variabili esogene e/o altre variabili predeterminate
che possono essere usate come regressori per derivare valori stimati delle
variabili endogene del modello.

Se alcune delle variabili del modello sono esogene, vanno incluse in
entrambe le liste.

Comando script: tsls

# var Estimation "Stima autoregressione vettoriale"

Questo comando richiede la specificazione dei seguenti elementi:

  - La variabile dipendente per la prima equazione nel sistema VAR;

  - L'ordine di ritardi, ossia il numero di ritardi di ogni variabile
  presente nel sistema;

  - Eventuali termini "deterministici" (ad es. la costante, un trend
  temporale, variabili dummy stagionali e così via; e

  - Una lista di variabili indipendenti, i cui ritardi saranno inclusi a
  destra delle equazioni (nota: non includere variabili ritardate in questa
  lista, verranno aggiunte automaticamente).

Viene calcolata una regressione separata per ogni variabile del sistema; i
risultati comprendono i test F per i vincoli di uguaglianza a zero su tutti
i ritardi della variabili e un test F per il ritardo massimo, oltre alla
scomposizione della varianza della previsione e alle funzioni di
impulso-risposta.

Le decomposizioni della varianza e le funzioni di impulso-risposta sono
basate sulla decomposizione di Cholesky della matrice di covarianza
contemporanea, e in questo contesto l'ordine in cui vengono date le
variabili stocastiche conta. La prima variabile nella lista viene
considerata come la "più esogena" all'interno del periodo.

Comando script: var

# vartest Tests "Test per la differenza delle varianze"

Calcola la statistica F per l'ipotesi nulla che le varianze della
popolazione per le variabili selezionate siano uguali e mostra il p-value.

Comando script: vartest

# wls Estimation "Stima minimi quadrati ponderati"

Detta "variabile-pesi" la variabile scelta nel campo "Variabile pesi", viena
stimata una regressione OLS in cui la variabile dipendente è il prodotto
della variabile dipendente selezionata e della variabile-pesi, e anche le
variabili indipendenti sono moltiplicate per la variabile-pesi. Se la
variabile-pesi è una variabile dummy, ciò equivale a eliminare tutte le
osservazioni per cui variabile-pesi vale zero.

Comando script: wls
