@new-style gretl.hlp

# add Tests "Test per le variabili aggiunte"

Aggiunge le variabili selezionate al modello precedente e stima il nuovo
modello. Se si aggiunge più di una variabile, verrà mostrata la statistica F
e il suo p-value per le nuove variabili (solo per la procedura OLS). Un
p-value inferiore 0.05 significa che i coefficienti sono congiuntamente
significativi al livello del 5 per cento.

Accesso dal menù: Finestra del modello, /Test/ADD - Aggiungi variabili

Comando script: add

# adf Tests "Test Dickey-Fuller aumentato"

Questo comando richiede un ordine di ritardo intero; se si indica un ordine
zero, viene eseguito un test Dickey-Fuller standard (non aumentato).

Calcola le statistiche per un gruppo di test Dickey-Fuller sulla variabile
specificata, assumendo come ipotesi nulla che la variabile abbia una radice
unitaria.

Per impostazione predefinita, vengono mostrate tre varianti del test: una
basata su una regressione che contiene solo una costante, una che include la
costante e un trend lineare, una che usa la costante e un trend quadratico.
È possibile controllare le tre varianti specificando una o più opzioni.

In tutti i casi, la variabile dipendente è la differenza prima della
variabile specificata, y, e la variabile dipendente più importante è il
ritardo (di ordine uno) di y. Il modello è costruito in modo che il
coefficiente della variabile ritardata y è pari a 1 meno la radice. Ad
esempio, il modello con una costante può essere scritto come

  (1 - L)y(t) = b0 + (1-a)y(t-1) + e(t)

Se l'ordine di ritardi, k, è maggiore di 0, ai regressori di ognuna delle
regressioni calcolate per il test saranno aggiunti k ritardi della variabile
dipendente.

Se l'ordine di ritardi, k, è maggiore di 0, ai regressori di ognuna delle
regressioni calcolate per il test saranno aggiunti k ritardi della variabile
dipendente, a meno che venga selezionata la casella "test per il ritardo
massimo"; in questo caso, l'ordine selezionato verrà considerato come ordine
massimo, e l'ordine da usare effettivamente sarà ricavato applicando la
seguente procedura di test "all'indietro":

1. Stima la regressione Dickey-Fuller con k ritardi della variabile
   dipendente.

2. Se questo ordine di ritardi è significativo, esegue il test con l'ordine
   di ritardo k. Altrimenti, prova il test con k = k - 1; se k = 0, esegue
   il test con ordine di ritardo 0, altrimenti va al punto 1.

Durante il punto 2 spiegato sopra, "significativo" significa che la
statistica t per l'ultimo ritardo abbia un p-value asintotico a due code per
la distribuzione normale pari a 0.10 o inferiore.

I p-value per questo test sono basati su MacKinnon (1996). Il codice
rilevante è incluso per gentile concessione dell'autore.

Accesso dal menù: /Variabile/Test Dickey-Fuller aumentato

Comando script: adf

# ar Estimation "Stima autoregressiva"

Calcola le stime parametriche usando la procedura iterativa generalizzata di
Cochrane-Orcutt (si veda il Capitolo 9.5 di Ramanathan). La procedura
termina quando le somme dei quadrati degli errori consecutivi non
differiscono per più dello 0.005 per cento, oppure dopo 20 iterazioni.

La "lista dei ritardi AR" specifica la struttura del processo dell'errore.
Ad esempio, l'indicazione "1 3 4" corrisponde al processo:

  u(t) = rho1*u(t-1) + rho3+u(t-3) + rho4*u(t-4)

Accesso dal menù: /Modello/Serie storiche/AR - Stima autoregressiva

Comando script: ar

# arch Tests "Test ARCH"

Questo comando richiede un ordine di ritardo intero.

Testa il modello per l'eteroschedasticità condizionale autoregressiva (ARCH:
Autoregressive Conditional Heteroskedasticity) dell'ordine specificato. Se
la statistica del test LM ha un p-value inferiore a 0.10, viene anche
effettuata la stima ARCH. Se la varianza prevista di qualche osservazione
nella regressione ausiliaria non risulta positiva, viene usato il
corrispondente residuo al quadrato. Viene quindi calcolata la stima con i
minimi quadrati ponderati sul modello originale.

Si veda anche "garch".

Accesso dal menù: Finestra del modello, /Test/ARCH

Comando script: arch

# arma Estimation "Stima ARMA"

Se è selezionato dal menù Variabile, stima un modello autoregressivo a media
mobile univariato (ARMA: Autoregressive, Moving Average). Se è selezionato
dal menù Modello ("ARMAX"), stima un modello ARMAX, che contiene in più dei
regressori esogeni.

Il funzionamento predefinito utilizza la funzione ARMA "interna" di gretl;
nel caso di un modello ARMA univariato, è anche possibile usare X-12-ARIMA
(se è stato installato il pacchetto X-12-ARIMA per gretl).

L'algoritmo interno di gretl per ARMA è in gran parte dovuto a Riccardo
"Jack" Lucchetti: utilizza una procedura di massima verosimiglianza
condizionale, implementata attraverso la stima iterata con minimi quadrati
della regressione del prodotto esterno del gradiente (OPG). Si veda l'il
manuale di gretl per la logica della procedura. I coefficienti AR (e quelli
per gli eventuali regressori aggiuntivi) sono inizializzati usando una
auto-regressione OLS, mentre i coefficienti MA sono inizializzati a zero.

Il valore AIC mostrato nei modelli ARMA è calcolato secondo la definizione
usata in X-12-ARIMA, ossia

  AIC = -2L + 2k

dove L è la log-verosimiglianza e k è il numero totale di parametri stimati.
Il valore di "frequenza" mostrato insieme alle radici AR e MA è il valore di
lambda che risolve

  z = r * exp(i*2*pi*lambda)

dove z è la radice in questione e r è il suo modulo.

Accesso dal menù: /Variabile/Modello ARMA, /Modello/Serie Storiche/ARMAX
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

Comando script: arma

# boxplot Graphs "Grafici boxplot"

Questo tipo di grafici (da Tukey e Chambers) mostra la distribuzione di una
variabile. La "scatola" centrale (box) racchiude il 50 per cento centrale
dei dati, ossia è delimitato dal primo e terzo quartile. I "baffi"
(whiskers) si estendono fino ai valori minimo e massimo. Una linea
trasversale sulla scatola indica la mediana.

Nel caso dei grafici a tacca ("notches"), una tacca indica i limiti
dell'intervallo di confidenza approssimato al 90 per cento per la mediana,
ottenuto col metodo bootstrap.

Dopo ogni variabile specificata nel comando boxplot, è possibile aggiungere
un'espressione booleana tra parentesi per limitare il campione per la
variabile in questione. Occorre inserire uno spazio tra il nome o il numero
della variabile e l'espressione. Si supponga di avere dati sui salari di
uomini e donne e di avere una variabile dummy GENERE che vale 1 per gli
uomini e 0 per le donne. In questo caso, è possibile generare dei boxplot
comparativi usando la seguente riga nella finestra di dialogo dei boxplot:

	salario (GENERE=1) salario (GENERE=0)

Alcuni dettagli del funzionamento dei boxplot di gretl possono essere
controllati attraverso un file testuale chiamato .boxplotrc. Per ulteriori
dettagli, si veda il manuale di gretl.

Accesso dal menù: /Dati/Grafico delle variabili/Boxplot

Comando script: boxplot

# chow Tests "Chow"

Questo comando richiede un numero di osservazione (o una data, se il dataset
lo consente).

Va eseguito dopo una regressione OLS. Crea una variabile dummy che vale 1 a
partire dal punto di rottura specificato da osservazione fino alla fine del
campione, 0 altrove; inoltre crea dei termini di interazione tra questa
dummy e le variabili indipendenti originali, stima una regressione che
include questi termini e calcola una statistica F, prendendo la regressione
aumentata come non vincolata e la regressione originale come vincolata. La
statistica è appropriata per testare l'ipotesi nulla che non esista un break
strutturale in corrispondenza del punto di rottura specificato.

Accesso dal menù: Finestra del modello, /Test/CHOW

Comando script: chow

# coeffsum Tests "Test sulla somma dei coefficienti"

Questo comando richiede una lista di variabili, selezionate tra le variabili
indipendenti di un modello.

Calcola la somma dei coefficienti delle variabili nella lista e mostra
l'errore standard e il p-value per l'ipotesi nulla che la somma sia zero.

Si noti la differenza tra questo test e "omit", che assume come ipotesi
nulla l'uguaglianza a zero di tutti i coefficienti di un gruppo di variabili
indipendenti.

Accesso dal menù: Finestra del modello, /Test/Somma dei coefficienti

Comando script: coeffsum

# coint Tests "Test di cointegrazione di Engle-Granger"

Il test di cointegrazione di Engle-Granger svolge dei test Dickey-Fuller
aumentati sull'ipotesi nulla che ognuna delle variabili elencate abbia una
radice unitaria, usando l'ordine di ritardi specificato. Viene stimata la
regressione di cointegrazione e viene eseguito un test ADF sui residui di
questa regressione, mostrando anche la statistica di Durbin-Watson per la
regressione di cointegrazione.

I pvalue per questo test si basano su MacKinnon (1996). Il codice relativo è
stato incluso per gentile concessione dell'autore.

Accesso dal menù: /Modello/Serie storiche/Test di cointegrazione/Engle-Granger

Comando script: coint

# coint2 Tests "Test di cointegrazione di Johansen"

Esegue il test traccia di Johansen per la cointegrazione tra le variabili
elencate per l'ordine specificato. I valori critici sono calcolati con
l'approssimazione gamma di J. Doornik's (Doornik, 1998). Per i dettagli su
questo test, si veda Hamilton, Time Series Analysis (1994), Cap. 20.

La tabella seguente fornisce un esempio di interpretazione dei risultati del
test nel caso di 3 variabili. H0 denota l'ipotesi nulla, H1 l'ipotesi
alternativa e c il numero delle relazioni di cointegrazione.

                 Rango    Test traccia       Test Lmax
                          H0     H1          H0     H1
                 ---------------------------------------
                  0      c = 0  c = 3       c = 0  c = 1
                  1      c = 1  c = 3       c = 1  c = 2
                  2      c = 2  c = 3       c = 2  c = 3
                 ---------------------------------------

Accesso dal menù: /Modello/Serie storiche/Test do cointegrazione/Johansen

Comando script: coint2

# compact Dataset "Compattamento dei dati"

Quando viene aggiunta a un dataset una serie di frequenza maggiore, occorre
"compattare" la nuova serie. Ad esempio, una serie mensile deve essere
compattata per adattarsi a un dataset trimestrale.

Inoltre, a volte può essere necessario compattare un intero dataset
abbassandone la frequenza (ad esempio, prima di aggiungere al dataset una
variabile a frequenza minore).

Ci sono quattro opzioni per il compattamento:

  Media: i nuovi valori saranno la media aritmetica dei corrispondenti
  valori della serie a frequenza maggiore. Ad esempio, il valore per il
  primo trimestre del 1990 sarà la media dei valori di gennaio, febbraio e
  marzo del 1990.

  Somma: i nuovi valori saranno la somma dei corrispondenti valori della
  serie a frequenza maggiore. Ad esempio, il valore per il primo trimestre
  sarà la somma dei valori di gennaio, febbraio e marzo.

  Valori di fine periodo: il nuovo valore è l'ultimo valore corrispondente
  nella serie a frequenza maggiore. Ad esempio, il valore del primo
  trimestre del 1990 sarà quello del marzo 1990.

  Valori di inizio periodo: il nuovo valore è il primo valore corrispondente
  nella serie a frequenza maggiore. Ad esempio, il valore del primo
  trimestre del 1990 sarà quello del gennaio 1990.

Se si compatta un intero dataset, il metodo di compattamento scelto diventa
quello predefinito, ma se si è scelto un metodo di compattamento per una
certa variabile (nel menù "Variabile/Modifica attributi") viene usato quel
metodo al posto di quello predefinito. Se il metodo di compattamento è già
stato scelto per tutte le variabili, non viene presentata la scelta per il
metodo di compattamento predefinito.

# corc Estimation "Stima Cochrane-Orcutt"

Calcola le stime dei parametri usando la procedura iterativa di
Cochrane-Orcutt (si veda il Capitolo 9.4 di Ramanathan). La procedura si
ferma quando le stime consecutive del coefficiente di autocorrelazione
differiscono per meno di 0.001, oppure dopo 20 iterazioni.

Accesso dal menù: /Modello/Serie storiche/Cochrane-Orcutt

Comando script: corc

# corrgm Statistics "Correlogramma"

Mostra i valori della funzione di autocorrelazione per la variabile
specificata (dal nome o dal numero). Si veda Ramanathan, Capitolo 11.7. È
definita come rho(u(t), u(t-s)) dove ut è la t-esima osservazione della
variabile u e s è il numero dei ritardi.

Vengono mostrate anche le autocorrelazioni parziali, ossia al netto
dell'effetto dei ritardi intermedi. Il comando produce anche un grafico del
correlogramma e mostra la statistica Q di Box-Pierce per testare l'ipotesi
nulla che la serie sia "white noise" (priva di autocorrelazione). La
statistica si distribuisce asintoticamente come chi-quadro con gradi di
libertà pari al numero di ritardi specificati.

Se viene specificato un valore max-ritardo, la lunghezza del correlogramma
viene limitata al numero di ritardi specificato, altrimenti viene scelta
automaticamente.

Accesso dal menù: /Variabile/Correlogramma
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

Comando script: corrgm

# cusum Tests "Test CUSUM"

Va eseguito dopo la stima di un modello OLS. Esegue il test CUSUM per la
stabilità dei parametri. Viene calcolata una serie di errori di previsione
(scalati) per il periodo successivo, attraverso una serie di regressioni: la
prima usa le prime k osservazioni e viene usata per generare la previsione
della variabile dipendente per l'osservazione k + 1; la seconda usa le prime
k + 1 osservazioni per generare una previsione per l'osservazione k + 2 e
così via (dove k è il numero dei parametri nel modello originale). Viene
mostrata, anche graficamente, la somma cumulata degli errori scalati di
previsione. L'ipotesi nulla della stabilità dei parametri è rifiutata al
livello di significatività del 5 per cento se la somma cumulata va al di
fuori delle bande di confidenza al 95 per cento.

Viene mostrata anche la statistica t di Harvey-Collier per testare l'ipotesi
nulla della stabilità dei parametri. Si veda il Capitolo 7 di Econometric
Analysis di Greene, per i dettagli.

Accesso dal menù: Finestra del modello, /Test/CUSUM

Comando script: cusum

# density Statistics "Stima kernel di densità"

La stima kernel di densità avviene definendo un insieme di punti di
riferimento distanziati in modo uniforme su un appropriato intervallo dei
dati, e attribuendo ad ognuno di essi un valore di densità basato sui valori
delle osservazioni circostanti.

La formula usata per calcolare la densità stimata in ognuno dei punti di
riferimento x è

	f(x) = (1/nh) sum(t=1 to n) k((x - x(t)) / h)

dove n denota il numero delle osservazioni, h è un parametro di "larghezza
di banda" e k() è la funzione kernel. All'aumentare del parametro di banda,
aumenta il livellamento della densità stimata.

È possibile usare un kernel Gaussiano (la densità normale standard) o il
kernel di Epanechnikov, mentre la larghezza di banda predefinita è quella
suggerita da Silverman (1986), ossia

	h = 0.9 min(s, IQR/1.349) n^{1/5}

dove s denota la deviazione standard dei dati e IQR denota il range
interquartile. È possibile allargare o restringere la banda usando il
"fattore di aggiustamento della banda": la banda effettivamente utilizzata
si ottiene moltiplicando il valore di Silverman per il fattore di
aggiustamento.

Per una buona discussione introduttiva della stima kernel, si veda il
capitolo 15 di Econometric Theory and Methods di Davidson e MacKinnon.

# dialog Estimation "Finestra di dialogo Modello"

Per selezionare la variabile dipendente, fare clic su una variabile nella
lista di sinistra e premere il pulsante "Scegli" con la freccia che punta
verso il riquadro della variabile dipendente. Selezionando la casella
"Imposta come predefinito", la variabile scelta verrà sempre pre-selezionata
come variabile dipendente durante le prossime aperture della finestra di
dialogo. Trucco: facendo doppio clic su una variabile sulla sinistra, viene
selezionata come variabile dipendente e impostata come scelta predefinita.

Per selezionare le variabili indipendenti, fare clic su di esse nella lista
di sinistra e premere il pulsante "Aggiungi" (o fare clic col pulsante
destro del mouse). È possibile selezionare più variabili contigue
trascinando il mouse; se le variabili da selezionare non sono contigue,
occorre fare clic tenendo prenuto il tasto Ctrl.

# export Dataset "Esportazione dei dati"

È possibile esportare dati in formato separato da virgole (CSV:
Comma-Separated Values), in modo che possano essere aperti con fogli
elettronici e molti altri programmi applicativi.

È anche possibile esportare i dati nei formati specifici di GNU R o GNU
octave. Per ulteriori informazioni in questi programmi (entrambi utili per
l'analisi statistica avanzata) si vedano i rispettivi siti web:
http://www.r-project.org/ e http://www.octave.org/

# factorized Graphs "Grafici X-Y con fattore"

Questo comando richiede che si selezionino tre variabili, l'ultima delle
quali deve essere una variabile dummy (con valori 1 o 0). La variabile Y è
rappresentata rispetto alla variabile X, con i punti colorati diversamente a
seconda del valore della terza variabile.

Esempio: si hanno dati sui salari e il livello di scolarità per un campione
di persone; si dispone anche di una variabile dummy che vale 1 per gli
uomini e 2 per le donne (come nel file data7-2 di Ramanathan). Un "Grafico
X-Y con fattore" di WAGE rispetto a EDUC usando la dummy GENDER mostrerà le
osservazioni che si riferiscono agli uomini in un colore e quelle delle
donne in un altro (insieme a una legenda per identificarli).

# fcasterr Prediction "Previsioni con errori standard"

Dopo aver stimato un modello OLS è possibile usare questo comando per
rappresentare i valori stimati su un intervallo di osservazioni specificato,
insieme agli errori standard stimati per queste previsioni e agli intervalli
di confidenza al 95 per cento.

Gli errori standard sono calcolati nel modo descritto da Wooldridge nel
capitolo 6 del suo Introductory Econometrics. Incorporano due fonti di
variabilità: la varianza associata al valore atteso della variabile
dipendente, condizionale ai valori dati delle variabili indipendenti, e la
varianza dei residui della regressione.

Accesso dal menù: Finestra del modello, /Dati modello/Previsioni con errori standard

Comando script: fcasterr

# garch Estimation "Stima GARCH"

Stima un modello GARCH (Generalized Autoregressive Conditional
Heteroskedasticity) univariato, o, se sono specificate delle
variabili-indipendenti, includendo delle variabili esogene. L'equazione
della varianza condizionale è la seguente:

  h(t) = a(0) + somma (i da 1 a q) a(i)*u(t-i) +  somma(j da 1 a p) b(j)*h(t-j)

L'algoritmo GARCH usato da gretl è in pratica quello di Fiorentini,
Calzolari e Panattoni (1996), usato per gentile concessione del Professor
Fiorentini.

Sono disponibili varie stime della matrice di covarianza dei coefficienti.
Il metodo predefinito è quello dell'Hessiana, a meno di non selezionare la
casella "Errori standard robusti", nel qual caso viene usata la matrice di
covarianza QML (White). Altre possibilità (ad es. la matrice di
informazione, o lo stimatore di Bollerslev-Wooldridge) possono essere
specificate con il comando "set".

Accesso dal menù: /Modello/Serie storiche/GARCH

Comando script: garch

# genr Dataset "Generazione di una nuova variabile"

Crea nuove variabili, di solito per mezzo di trasformazioni di variabili
esistenti. Si veda anche "diff", "logs", "lags", "ldiff", "multiply" e
"square" per le scorciatoie.

Gli operatori aritmetici supportati sono, in ordine di precedenza: ^
(esponenziale); *, / e % (modulo o resto); + e -.

Gli operatori Booleani disponibili sono (ancora in ordine di precedenza): !
(negazione), & (AND logico), | (OR logico), >, <, =, >= (maggiore o uguale),
<= (minore o uguale) e != (disuguale). Gli operatori Booleani possono essere
usati per costuire variabili dummy: ad esempio (x > 10) produce 1 se x > 10,
0 altrimenti.

Le funzioni supportate appartengono ai gruppi seguenti:

  Funzioni matematiche standard: abs, cos, exp, int (parte intera), ln
  (logaritmo naturale: log è un sinonimo), sin, sqrt (radice quadrata).

  Funzioni statistiche: max (valore massimo in una serie), min (minimo),
  mean (media aritmetica), median, var (varianza) sd (deviazione standard),
  sst (somma dei quadrati delle deviazioni dalla media), sum, cov
  (covarianza), corr (coefficiente di correlazione), pvalue, sort, cum
  (somma cumulata), cnorm (funzione di ripartizione normale standard), dnorm
  (funzione di densità normale standard), resample (ricampiona una serie con
  rimpiazzo, utile per il bootstrap), hpfilt (filtro di Hodrick-Prescott:
  produce la componente di "ciclo" della serie), bkfilt (filtro passa-banda
  di Baxter-King).

  Funzioni per serie storiche: diff (differenza prima), ldiff
  (log-differenza, ossia la differenza prima dei logaritmi naturali). Per
  generare ritardi della variabile x, si può usare la sintassi "x(-N)", dove
  N rappresenta la lunghezza del ritardo desiderato; per generare anticipi
  si usi "x(+N)".

  Funzioni dataset: misszero (sostituisce con zero il codice delle
  osservazioni mancanti in una serie); zeromiss (l'operazione inversa di
  misszero); nobs (riporta il numero di osservazioni valide in una data
  serie); missing (per ogni osservazione, vale 1 se l'argomento ha un valore
  mancante, 0 altrimenti); ok (l'opposto di missing).

  Numeri pseudo-casuali: uniform, normal.

Tutte le funzioni viste sopra, con l'eccezione di cov, corr, pvalue, uniform
e normal hanno come unico argomento il nome di una variabile (attenzione:
non è possibile indicare le variabili con il loro numero identificativo in
una formula "genr") o un'espressione che si risolve in una variabie (ad es.
ln((x1+x2)/2)). cov e corr richiedono due argomenti e producono
rispettivamente il coefficiente di covarianza e di correlazione tra i due
argomenti. La funzione pvalue richiede gli stessi argomenti del comando
"pvalue", ma in questo caso occorre separare gli argomenti con delle
virgole. Questa funzione produce un p-value a una coda, che nel caso delle
distribuzioni normale e t è la "coda corta". Con la normale, ad esempio, sia
1.96 sia -1.96 daranno un risultato di circa 0.025.

uniform() e normal(), che non richiedono argomenti, producono delle serie
pseudo-casuali estratte dalle distribuzioni uniforme (0-1) e normale
standard (si veda anche il comando "set" con l'opzione seed). Le serie dalla
distribuzione uniforme sono generate usando il Mersenne Twister ; per le
serie dalla distribuzione normale, viene usato il metodo di Box e Muller
(1958), prendendo l'input dal Mersenne Twister.

Oltre agli operatori e alle funzioni mostrati, ci sono alcuni usi speciali
del comando "genr":

  "genr time" crea una variabile trend temporale (1,2,3,...) chiamata
  "time". "genr index" fa la stessa cosa, ma chiamando la variable index.

  "genr dummy" crea una serie di variabili dummy a seconda della periodicità
  dei dati. Ad esempio, nel caso di dati trimestrali (periodicità 4) il
  programma crea dummy_1, che vale 1 nel primo trimestre e 0 altrove,
  dummy_2 che vale 1 nel secondo trimestre e 0 altrove, e così via.

  "genr paneldum" crea una serie di variabili dummy da usare in un dataset
  di tipo panel -- si veda "panel".

  Alcune variabili interne che vengono generate durante il calcolo di una
  regressione possono essere recuperate usando "genr", nel modo seguente:

  $ess               somma dei quadrati degli errori
  $rsq               R-quadro
  $T                 numero delle osservazioni usate
  $df                gradi di libertà
  $trsq              TR-quadro (ampiezza del campione moltiplicata per 
                     R-quadro)
  $sigma             errore standard dei residui
  $aic               criterio di informazione di Akaike
  $bic               criterio di informazione bayesiana di Schwarz
  $lnl               log-verosimiglianza (dove è applicabile)
  $sigma             errore standard dei residui
  coeff(variabile)   coefficiente stimato per la variabile
  stderr(variabile)  errore standard stimato per la variabile
  rho(i)             coefficiente di autoregressione dei residui di ordine 
                     i-esimo
  vcv(x1,x2)         covarianza tra i coefficienti delle variabili x1 e x2 

Nota: nella versione a riga di comando del programma, i comandi "genr" che
estraggono dati relativi al modello si riferiscono sempre al modello stimato
per ultimo. Questo vale anche per la versione grafica del programma se si
usa "genr" nel "terminale di gretl" o si immette una formula usando
l'opzione "Definisci nuova variabile" nel menù Variabile della finestra
principale. Usando la versione grafica, però, è possibile anche estrarre i
dati da qualunque modello mostrato in una finestra (anche se non è il
modello più recente) usando il menù "Dati modello" nella finestra del
modello.

Le serie interne uhat e yhat contengono rispettivamente i residui e i valori
stimati dell'ultima regressione.

Sono disponibili tre variabili dataset "interne": $nobs, che contiene il
numero di osservazioni nell'intervallo del campione attuale (che non è
necessariamente uguale al valore di $T, il numero delle osservazioni usate
per stimare l'ultimo modello), $nvars, che contiene il numero di variabili
nel dataset (inclusa la costante), e $pd, che contiene la frequenza o la
periodicità dei dati (ad esempio 4 per dati trimestrali).

Due scalari speciali interni, $test e $pvalue, contengono rispettivamente il
valore e il p-value della statistica test che è stata generata dall'ultimo
comando di test eseguito esplicitamente (ad es. chow). Si veda il manuale di
gretl per i dettagli.

La variabile t serve da indice per le osservazioni. Ad esempio, genr dum =
(t=15) crea una variabile dummy che vale 1 per l'osservazione 15 e 0
altrove. La variabile obs è simile ma più flessibile: è possibile usarla per
isolare alcune osservazioni indicandole con una data o un nome. Ad esempio,
genr d = (obs>1986:4) o genr d = (obs="CA"). L'ultima forma richiede che
siano definite delle etichette, da usare tra virgolette doppie, per le
osservazioni.

È possibile estrarre dei valori scalari da una serie usando una formula genr
con la sintassi nome-variabile[osservazione]. Il valore di osservazione può
essere specificato con un numero o una data. Esempi: x[5], CPI[1996:01]. Per
i dati giornalieri occorre usare la forma AAAA/MM/GG, ad esempio
ibm[1970/01/23].

È possibile modificare una singola osservazione in una serie usando genr.
Per farlo, occorre aggiungere un numero di osservazione o una data valida
tra parentesi quadre al nome della variabile nel lato sinistro della
formula. Ad esempio: genr x[3] = 30 o genr x[1950:04] = 303.7.

La La tabella seguente mostra vari esempi di utilizzo di "genr", con alcune
note esplicative; ecco qualche esempio di utilizzo delle variabili dummy:

  Si supponga che x abbia valori 1, 2, o 3 e si desiderino tre variabili
  dummy, d1 = 1 se x = 1, e 0 altrove, d2 = 1 se x = 2 e così via. Per
  crearle, basta usare i comandi:

	    genr d1 = (x=1)
	    genr d2 = (x=2)
	    genr d3 = (x=3)

  Per creare z = max(x,y) usare

	    genr d = x>y
	    genr z = (x*d)+(y*(1-d))

  Formula               Commento
  -------               -------
  y = x1^3              x1 al cubo
  y = ln((x1+x2)/x3)    
  z = x>y               z(t) = 1 se x(t) > y(t), 0 altrove
  y = x(-2)             x ritardata di 2 periodi
  y = x(2)              x anticipata di 2 periodi
  y = diff(x)           y(t) = x(t) - x(t-1)
  y = ldiff(x)          y(t) = log x(t) - log x(t-1), il tasso di crescita 
                        istantaneo di x
  y = sort(x)           ordina x in senso crescente e la salva in y
  y = -sort(-x)         ordina x in senso decrescente
  y = int(x)            tronca x e salva il valore intero in y
  y = abs(x)            salva il valore assoluto di x
  y = sum(x)            somma i valori di x escludendo i valori mancanti -999
  y = cum(x)            cumulativa: y(t) = somma di x(s) per s da 1 a t 
  aa = $ess             imposta aa uguale alla somma dei quadrati degli errori 
                        dell'ultima regressione
  x = coeff(sqft)       estrae il coefficiente stimato per la variabile sqft 
                        nell'ultima regressione
  rho4 = rho(4)         estrae il coefficiente di autoregressione del quarto 
                        ordine dall'ultimo modello (presume un modello ar 
                        model)
  cvx1x2 = vcv(x1, x2)  estrae il coefficiente di covarianza stimato tra le 
                        variabili x1 e x2 dall'ultimo modello
  foo = uniform()       variabile pseudo-casuale uniforme nell'intervallo 0-1
  bar = 3 * normal()    variabile pseudo-casuale normale con mu = 0, sigma = 3
  samp = !missing(x)    vale 1 per le osservazioni dove il valore di x non è 
                        mancante.

Accesso dal menù: /Variabile/Definisci nuova variabile
Accesso alternativo: Menù pop-up nella finestra principale

Comando script: genr

# graphing Graphs "Grafici"

Gretl richiama un programma separato, gnuplot, per generare i grafici.
Gnuplot è un programma di grafica molto completo, con una miriade di
opzioni; gretl fornisce l'accesso, attraverso un'interfaccia grafica, a una
parte di queste opzioni, cercando di scegliere dei valori, ma è possibile
anche controllare l'aspetto di un grafico in tutti i suoi dettagli, se si
vuole.

Mentre un grafico viene visualizzato, facendo clic sulla finestra del
grafico si aprirà un menù pop-up con le seguenti opzioni:

  Salva come postscript: salva il grafico in formato encapsulated postscript
  (EPS)

  Salva come PNG: salva in formato Portable Network Graphics

  Salva alla sessione come icona: il grafico apparirà sotto forma di icona
  quando si seleziona "Visualizza Icone" dal menù Sessione

  Ingrandisci: permette di selezionare un'area all'interno del grafico per
  visualizzarla da vicino

  Stampa: permette di stampare il grafico direttamente (disponibile solo in
  Gnome e MS Windows)

  Copia negli appunti: permette di copiare il grafico per poi incollarlo in
  altri programmi Windows, come ad esempio MS Word (disponibile solo in MS
  Windows)

  Modifica: apre una finestra che permette di modificare vari dettagli
  dell'aspetto del grafico

  Chiudi: chiude la finestra del grafico

Se si conosce gnuplot e si desidera un controllo sull'aspetto del grafico
più preciso di quello fornito dalla finestra di modifica del grafico
(opzione "Modifica"), ci sono due possibilità:

  Una volta salvato il grafico come icona di sessione, facendo clic col
  tasto destro sull'icona si apre un altro menù pop-up. Una delle opzioni
  disponibili è "Comandi per modificare il grafico", che apre una finestra
  di modifica con i comandi di gnuplot. È possibile modificare questi
  comandi e salvarli per il futuro, oppure inviarli direttamente a gnuplot
  (con il comando "File/Invia a gnuplot" del menù della finestra di modifica
  dei comandi).

  Un altro modo per salvare i comandi del grafico (o per salvare il grafico
  in formati diversi da EPS o PNG) è quello di usare il comando "Modifica"
  nel menù pop-up del grafico per aprire la finestra di modifica del
  grafico, quindi fare clic su "File": verrà visualizzato un menù a discesa
  con i formati in cui è possibile salvare il grafico.

Per saperne di più su gnuplot, si veda
http://ricardo.ecn.wfu.edu/gnuplot.html oppure http://www.gnuplot.info

# graphpag Graphs "Pagina dei grafici"

La "pagina dei grafici" funzionerà solo se si è installato il sistema di
composizione LaTeX e si è in grado di generare e visualizzare file in
formato postscript.

Nella finestra della sessione, è possibile trascinare fino a otto grafici
sull'icona della pagina dei grafici. Facendo doppio clic sull'icona della
pagina dei grafici (o facendo clic col tasto destro e selezionando
"Mostra"), la pagina contenente i grafici selezionati verrà composta e
aperta con il proprio visualizzatore di file postscript, da cui sarà
possibile stamparla.

Per pulire la pagina dei grafici, fare clic col tasto destro sull'icona e
selezionare "Pulisci".

Su sistemi diversi da MS Windows, può essere necessario modificare
l'impostazione del programma per visualizzare il postscript, che si trova
nella sezione "Programmi" della finestra di dialogo delle Preferenze di
gretl (nel menù File della finestra principale).

# 3-D Graphs "Grafici tridimensionali"

Questa funzionalità migliora se è stata installata una versione di gnuplot
pari o superiore alla 3.8, che consente di manipolare il grafico 3D con il
mouse (ruotandolo ed allungando o riducendo gli assi).

Nella composizione di un grafico 3D, si noti che l'asse Z sarà l'asse
verticale, quindi se si ha una variabile dipendente che si pensa possa
essere influenzata da due variabili indipendenti, è meglio mettere la
variabile dipendente sull'asse Z e le altre due variabili sugli assi X e Y.

A differenza di molti altri grafici di gretl, i grafici 3D sono controllati
da gnuplot invece che da gretl, quindi il menù di modifica dei grafici in
questo caso non è disponibile.

# hausman Tests "Test di Hausman (diagnosi panel)"

Questo test è disponibile solo dopo aver stimato un modello con il comando
"pooled" (si veda anche "panel" e "setobs"). Testa il semplice modello
"pooled" (con tutte le osservazioni considerate indistintamente) contro le
principali alternative: il modello a effetti fissi e quello a effetti
casuali.

Il modello a effetti fissi aggiunge una variabile dummy per tutte le unità
cross section tranne una, permettendo così all'intercetta della regressione
di variare per ogni unità. Viene poi eseguito un test F per la
significatività congiunta di queste dummy. Il modello a effetti casuali
scompone la varianza dei residui in due parti: una specifica all'unità cross
section e una specifica all'osservazione particolare (la stima può essere
eseguita solo se il numero delle unità cross section nel dataset è maggiore
del numero dei parametri da stimare). La statistica LM di Breusch-Pagan
testa l'ipotesi nulla (che il modello pooled OLS sia adeguato) contro
l'alternativa a effetti casuali.

Può accadere che il modello pooled OLS sia rifiutato nei confronti di
entrambe le alternative, a effetti fissi o casuali. A patto che gli errori
specifici di unità o di gruppo siano non correlati con le variabili
indipendenti, lo stimatore a effetti casuali è più efficiente dello
stimatore a effetti fissi; nel caso contrario lo stimatore a effetti casuali
non è consistente e deve essergli preferito lo stimatore a effetti fissi.
L'ipotesi nulla per il test di Hausman è che l'errore specifico di gruppo
non sia correlato con le variabili indipendenti (e quindi che il modello a
effetti casuali sia preferibile). Un basso p-value per questo test
suggerisce di rifiutare il modello a effetti casuali in favore del modello a
effetti fissi.

Accesso dal menù: Finestra del modello, /Test/HAUSMAN - Diagnosi panel

Comando script: hausman

# hccme Estimation "Errori standard robusti"

Sono disponibili vari modi di calcolare gli errori standard robusti in
presenza di eteroschedasticità (e, nel caso dello stimatore HAC, di
autocorrelazione).

HC0 produce gli "errori standard originali di White"; HC1, HC2, HC3 e HC3a
sono varianti che si ritiene producano risultati migliori (più affidabili).
Per i dettagli sugli stimatori, si veda MacKinnon e White (Journal of
Econometrics, 1985) o Davidson e MacKinnon, Econometric Theory and Methods
(Oxford, 2004). Le sigle usate sono quelle proposte da Davidson e MacKinnon.
La variante "HC3a" è il "jackknife" descritto da MacKinnon e White (1985);
HC3 è una sua vicina approssimazione.

Se si usa lo stimatore HAC per serie storiche, è possibile calibrare la
lunghezza dei ritardi usando il comando "set". Si veda il manuale di gretl o
i file di aiuto per i dettagli.

Per i modelli GARCH sono disponibili due stimatori robusti della matrice di
covarianza: QML è lo stimatore di quasi massima verosimiglianza, e BW è lo
stimatore di Bollerslev-Wooldridge.

# hilu Estimation "Stima Hildreth-Lu"

Calcola le stime dei parametri per il modello specificato usando la
procedura di ricerca di Hildreth-Lu (ottimizzata con la procedura CORC),
progettata per correggere l'effetto della correlazione seriale nel termine
di errore. Viene mostrato un grafico della somma dei quadrati degli errori
per il modello trasformato rispetto ai valori di rho da -0.99 a 0.99.

Accesso dal menù: /Modello/Serie storiche/Hildreth-Lu

Comando script: hilu

# hsk Estimation "Stime corrette per l'eteroschedasticità"

Stima una regressione OLS e ne salva i residui. I logaritmi dei quadrati di
questi residui diventano la variabile dipendente di una regressione
ausiliaria che ha come regressori le variabili indipendenti originali e i
loro quadrati. I valori stimati dalla regressione ausiliaria sono quindi
usati per costruire una serie di pesi, usati per ri-stimare il modello
originale con la procedura dei minimi quadrati ponderati. Viene riportato il
risultato finale.

La serie dei pesi è composta da 1/sqrt(exp(y*)), dove y* denota i valori
stimati dalla regressione ausiliaria.

Accesso dal menù: /Modello/WLS corretti per eteroschedasticità

Comando script: hsk

# hurst Statistics "Esponente di Hurst"

Calcolate l'esponente di Hurst (una misura di persistenza, o di memoria
lunga) per una serie storica con almeno 128 osservazioni.

L'esponente di Hurst è discusso da Mandelbrot. In termini teorici è
l'esponente H nella relazione

  RS(x) = an^H

dove RS è l'"intervallo riscalato" della variabile x in un campione
dell'ampiezza n, mentre a è una costante. L'intervallo riscalato è
l'intervallo (valore massimo meno valore minimo) del valore cumulato, o
somma parziale, di x sul periodo del campione (dopo aver sottratto la media
campionaria), diviso per la deviazione standard campionaria.

Come punto di riferimento, se x è un rumore bianco (media zero, persistenza
zero) l'intervallo dei suoi valori cumulati (che forma una passeggiata
casuale), scalato per la deviazione standard, cresce come la radice quadrata
dell'ampiezza campionaria, ossia ha un esponente di Hurst atteso pari a 0.5.
Valori dell'esponente sensibilmente maggiori di 0.5 indicano persistenza
della serie, mentre valori minori di 0.5 indicano anti-persistenza
(autocorrelazione negativa). In teoria l'esponente deve essere compreso tra
0 e 1, ma in campioni finiti è possibile ottenere delle stime per
l'esponente maggiorni di 1.

In gretl, l'esponente è stimato usando il sotto-campionamento binario: si
inizia dall'intero intervallo dei dati, quindi si usano le due metà
dell'intervallo, poi i quattro quarti, e così via. Il valore RS è la media
presa sui vari campioni. L'esponente è quindi stimato come il coefficiente
di pendenza della regressione del logaritmo di RS sul logaritmo
dell'ampiezza del campione.

Accesso dal menù: /Variable/FIXME

Comando script: hurst

# label Dataset "Modifica degli attributi di una variabile"

In questa finestra di dialogo è possibile:

* Rinominare una variabile.

* Aggiungere o modificare una descrizione della variabile, che appare
accanto al nome della variabile nella finestra principale di gretl.

* Aggiugere o modificare il "nome per i grafici" della variabile. Questa
stringa (lunga al massimo 19 caratteri) viene usata al posto del nome della
variabile quando questa compare in un grafico. Così, ad esempio, è possibile
associare una stringa più comprensibile come "Tariffe telefoniche" a un nome
criptico come "tartel".

* Impostare (nel caso di un dataset di serie storiche) il metodo di
compattamento per la variabile, che verrà usato se si decide di ridurre la
frequenza del dataset, o se si importa la variabile da un dataset che ha una
frequenza maggiore di quella del dataset in uso.

Accesso dal menù: /Variabile/Modifica attributi
Accesso alternativo: Menù pop-up nella finestra principale

Comando script: label

# kpss Tests "Test KPSS"

Calcola il test KPSS (Kwiatkowski, Phillips, Schmidt e Shin, 1992) per la
stazionarietà di una variabile. L'ipotesi nulla è che la variabile in
questione sia stazionaria, attorno a un valore fisso o, se è stata
selezionata l'opzione includi un trend, attorno a un trend deterministico
lineare.

L'argomento ordine determina la dimensione della finestra usata per il
livellamento di Bartlett. Se si usa l'opzione Mostra i risultati della
regressione, vengono mostrati anche i risultati della regressione
ausiliaria, insieme alla varianza stimata della componente random walk della
variabile.

Accesso dal menù: /Variabile/Test KPSS

Comando script: kpss

# lad Estimation "Stima con minime deviazioni assolute"

Calcola una regressione che minimizza la somma delle deviazioni assolute dei
valori stimati dai valori effettivi della variabile dipendente. Le stime dei
coefficienti sono derivate usando l'algoritmo del simplesso di
Barrodale-Roberts; viene mostrato un messaggio di avvertimento se la
soluzione non è unica. Gli errori standard sono derivati attraverso la
procedura bootstrap con 500 estrazioni.

Accesso dal menù: /Modello/LAD - Minime deviazioni assolute

Comando script: lad

# leverage Tests "Test per le osservazioni influenti"

Deve seguire immediatamente un comando "ols". Calcola il "leverage" (h,
compreso tra 0 e 1) di ogni osservazione nel campione su cui è stato stimato
il precedente modello. Mostra il residuo (u) per ogni osservazione assieme
al leverage corrispondente e a una misura della sua influenza sulla stima:
u*h/(1-h). I "punti di leverage" per cui il valore di h supera 2k/n (dove k
è il numero dei parametri stimati e n è l'ampiezza del campione) sono
indicati con un asterisco. Per i dettagli sui concetti di leverage e
influenza, si veda Davidson e MacKinnon (1993, capitolo 2).

Vengono mostrati anche i valori DFFITS: questi sono "residui studentizzati"
(ossia i residui previsti, divisi per i propri errori standard) moltiplicati
per sqrt[h/(1 - h)]. Per una discussione dei residui studentizzati e dei
valori DFFITS si veda G. S. Maddala, Introduction to Econometrics, capitolo
12 e anche Belsley, Kuh e Welsch (1980). In breve, i "residui previsti" sono
la differenza tra il valore osservato e il valore stimato della variabile
dipendente all'osservazione t, ottenuti da una regressione in cui
quell'osservazione è stata omessa (oppure in cui è stata aggiunta una
variabile dummy che vale 1 solo per l'osservazione t); il residuo
studentizzato si ottiene dividendo il residuo previsto per il proprio errore
standard.

L'icona "+" in cima alla finestra del test di leverage apre una finestra di
dialogo che permette di salvare nel dataset in uso una o più delle variabili
del test.

Accesso dal menù: Finestra del modello, /Test/LEVERAGE - Osservazioni influenti

Comando script: leverage

# lmtest Tests "Test LM"

Questo comando racchiude vari test di ipotesi. La caratteristica comune è
che ttti i test prevedono la stima di una regressione ausiliaria in cui la
variabile dipendente è il residuo di una regressione "originale". Le
variabili indipendenti della regressione ausiliaria comprendono quelle della
regressione originale e alcuni termini aggiuntivi. La statistica test è
calcolata come (ampiezza campionaria * R-quadro) della regressione
ausiliaria: si distribuisce come chi-quadro con gradi di libertà pari al
numero dei termini aggiuntivi, sotto l'ipotesi nulla che essi non abbiano
potere esplicativo sui residui. Un valore "elevato" del chi-quadro (ossia un
basso p-value) suggerisce di rifiutare questa ipotesi nulla.

Accesso dal menù: Finestra del modello, /Test

Comando script: lmtest

# logistic Estimation "Stima logistica"

Regressione logistica: esegue una regressione OLS usando la trasformazione
logistica sulla variabile dipendente:

  log(y/(ymax - y))

La variabile dipendente dev'essere strettamente positiva. Se è una frazione
decimale, compresa tra 0 e 1, il valore predefinito per ymax (il massimo
asintotico della variabile dipendente) è 1. Se la variabile dipendente è una
percentuale, compresa tra 0 e 100, il valore predefinito di ymax è 100. È
possibile indicare un diverso valore massimo nella finestra di dialogo: il
valore deve essere maggiore di tutti i valori osservati della variabile
dipendente.

I valori stimati e i residui della regressione sono trasformati
automaticamente usando

  y = ymax / (1 + exp(-x))

dove x rappresenta un valore stimato oppure un residuo della regressione
OLS, usando la variabile dipendente trasformata. I valori riportati sono
dunque confrontabili con la variabile dipendente originale.

Si noti che se la variabile dipendente è binaria, occorre usare il comando
"logit" invece di questo comando.

Accesso dal menù: /Modello/Logistico

Comando script: logistic

# logit Estimation "Stima logit"

Regressione binomiale logit. La variabile dipendente deve essere binaria. Le
stime di massima verosimiglianza dei coefficienti per le
variabili-indipendenti sono ottenute con il metodo EM
(Expectation-Maximization, si veda Ruud, 2000, capitolo 27). Visto che il
modello è nonlineare, le pendenze dipendono dai valori delle variabili
indipendenti: le pendenze riportate sono valutate nelle medie di queste
variabili. La statistica chi-quadro testa l'ipotesi nulla che tutti i
coefficienti tranne la costante siano pari a zero.

Per condurre un'analisi delle proporzioni (dove la variabile dipendente è la
proporzione dei casi che hanno una certa caratteristica in ogni
osservazione, invece che una variabile binaria che indica se la
caratteristica è presente o no), non bisogna usare il comando "logit", ma
occorre costruire la variabile logit (ad es. "genr lgt_p = log(p/(1 - p))")
e usare questa come variabile dipendente in una regressione OLS; si veda
Ramanathan, capitolo 12.

Accesso dal menù: /Modello/Logit

Comando script: logit

# mahal Statistics "Distanze di Mahalanobis"

La distanza di Mahalanobis è la distanza tra due punti in uno spazio
k-dimensionale, scalata rispetto alla variazione statistica in ogni
dimensione dello spazio. Ad esempio, se p e q sono due osservazioni su un
insieme di k variabili con matrice di covarianza C, la distanza di
Mahalanobis tra le due osservazioni è data da

  sqrt((p - q)' * C-inversa * (p - q))

dove (p - q) è un vettore a k dimensioni. Se la matrice di covarianza è la
matrice identità, la distanza di Mahalanobis corrisponde alla distanza
Euclidea.

Lo spazio in cui vengono calcolate le distanze è definito dalle variabili
selezionate; per ogni osservazione nell'intervallo attuale viene calcolata
la distanza tra l'osservazione e il centroide delle variabili selezionate.
La distanza è la controparte multidimensionale di uno z-score standard e può
essere usata per giudicare se una certa osservazione "appartiene" a un
gruppo di altre osservazioni.

Se il numero delle variabili selezionate è minore o uguale a 4, vengono
mostrate la matrice di covarianza e la sua inversa. Facendo clic sul
pulsante "+" in cima alla finestra che mostra le distanze è possibile
aggiungerle al dataset come nuova variabile.

Accesso dal menù: /Dati/Distanze di Mahalanobis

Comando script: mahal

# markers Dataset "Aggiunta di marcatori"

Questo comando richiede il nome di un file che contiene "marcatori" per le
osservazioni, ossia brevi stringhe identificative per singole osservazioni
del dataset (ad esempio nomi di paesi o città, o altri codici), che possono
essere lunghe fino a 8 caratteri. Il file deve contenere un marcatore per
riga e devono esserci tanti marcatori quante sono le osservazioni nel
dataset corrente. Se queste condizioni sono rispettate e se il file
specificato esiste, i marcatori verranno aggiunti al dataset e saranno
visibili scegliendo "Mostra valori" dal menù "Dati" di gretl.

# meantest Tests "Test per la differenza delle medie"

Calcola la statistica t per l'ipotesi nulla che le medie della popolazione
siano uguali per due variabili selezionate, mostrando il suo p-value. Il
comando può essere eseguito con o senza l'ipotesi che le varianze delle due
variabili siano uguali (anche se questo è rilevante per la statistica test
solo se le due variabili contengono un diverso numero di osservazioni
valide).

Accesso dal menù: /Dati/Differenza delle medie

Comando script: meantest

# missing Dataset "Valori dati mancanti"

Imposta un valore numerico che sarà interpretato come "mancante" o "non
disponibile", per una serie particolare (nel menu Variabile) o globalmente
per l'intero dataset (nel menu Campione).

Gretl ha un codice interno per i valori mancanti, che non sempre può
coincidere con quello usato dai dati importati. Ad esempio, se una serie usa
il valore -1 col significato di "non disponibile", è possibile selezionare
"Imposta codice valori mancanti" nel menù Variabile e immettere il valore
"-1" (senza le virgolette); gretl interpreterà quindi i valori -1 come
osservazioni mancanti.

# modeltab Utilities "Tabella modelli"

Nella ricerca econometrica si è soliti stimare vari modelli con una
variabile dipendente comune, che differiscono tra loro per le variabili
indipendenti o per lo stimatore usato. In questa situazione è comodo poter
rappresentare i risultati delle regressioni sotto forma di una tabella dove
ogni colonna contiene i risultati (stime dei coefficienti e errori standard)
per un dato modello e ogni riga contiene le stime per una certa variabile
nei differenti modelli.

Gretl dà la possibilità di costruire una tabella simile (e di esportarla in
testo semplice, LaTeX o RTF - Rich Text Format). Ecco come fare:

1. 1. Stimare un modello che si vuole includere nella tabella e selezionare,
   nel menù File della finestra di visualizzazione del modello, "Salva alla
   sessione come icona" o "Salva come icona e chiudi".

2. 2. Ripetere il punto 1 per gli alri modelli da includere nella tabella
   (fino a un massimo di sei modelli).

3. 3. Completata la stima dei modelli, aprire l'icona della sessione di
   gretl (selezionando "Visualizza Icone" nel menù Sessione della finestra
   principale di gretl, o facendo clic su "Icone di sessione" sulla barra
   degli strumenti di gretl).

4. 4. La finestra delle icone di sessione contiene un'icona chiamata
   "Tabella Modelli". Per aggiungere alla tabella modelli il modello che
   deve apparire nella colonna più a sinistra della tabella, basta
   trascinare l'icona del modello sull'icona della Tabella Modelli, oppure
   fare clic col tasto destro sull'icona del modello e selezionare "Aggiungi
   alla tabella modelli" dal menù pop-up.

5. 5. Ripetere il punto 4 per gli altri modelli da aggiungere alla tabella.
   Il secondo modello scelto apparirà nella seconda colonna da sinistra
   della tabella, e così via.

6. 6. Ultimata la composizione della tabella, è possibile visualizzarla
   facendo doppio clic sulla sua icona. Per copiare la tabella negli appunti
   in uno dei formati supportati, basta fare clic sul menù Modifica della
   finestra in cui appare la tabella.

7. 7. Se l'ordinamento dei modelli nella tabella non è quello voluto, fare
   clic col tasto destro sull'icona della tabella modelli e selezionare
   "Pulisci", quindi tornare al punto 4.

Accesso dal menù: Finestra di sessione, Icona Tabella Modelli

Comando script: modeltab

# mpols Estimation "Stima OLS a precisione multipla"

Calcola le stime OLS per il modello indicato usando aritmetica in virgola
mobile a precisione multipla. Questo comando è disponibile solo se gretl è
compilato con il supporto per la libreria Gnu Multiple Precision (GMP).

Accesso dal menù: /Modello/MPOLS - Minimi quadrati in alta precisione

Comando script: mpols

# nls Estimation "Stima minimi quadrati non-lineari"

Esegue una stima con minimi quadrati non-lineari (NLS: Nonlinear Least
Squares) usando una versione modificata dell'algoritmo di
Levenberg-Marquandt. Occorre fornire una specificazione di funzione e si
raccomanda di specificare anche le espressioni per le derivate di questa
funzione rispetto a ognuno dei parametri, se possibile.

Esempio: si supponga di avere un dataset con le variabili C e Y (ad es.
greene11_3.gdt) e di voler stimare una funzione di consumo non-lineare del
tipo:

  C = alfa + beta * Y^gamma

I parametri alfa, beta e gamma devono per prima cosa essere aggiunti al
dataset, indicando un valore iniziale; è possibile farlo usando il comando
genr o attraverso i menù. È possibile inserire i comandi "genr" appropriati
nella finestra di dialogo della specificazione NLS prima di specificare la
funzione.

Nella finestra NLS si inseriranno le righe seguenti:

	C = alfa + beta * Y^gamma
	deriv alfa = 1
	deriv beta = Y^gamma
	deriv gamma = beta * Y^gamma * log(Y)

La prima riga indica la specificazione della funzione, mentre le righe
successive forniscono le derivate della funzione rispetto ad ognuno dei tre
parametri. Se non vengono fornite le righe "deriv", viene calcolata
un'approssimazione numerica del Jacobiano.

Se i parametri alfa, beta e gamma non sono stati dichiarati in precedenza, è
possibile premettere alle righe viste sopra le seguenti:

	genr alpha = 1
	genr beta = 1
	genr gamma = 1

Per ulteriori dettagli sulla stima NLS si veda il il manuale di gretl.

Accesso dal menù: /Modello/Minimi quadrati non lineari

Comando script: nls

# nulldata Dataset "Creazione di un dataset vuoto"

Crea un dataset "vuoto", che contiene solo una costante e una variabile
indice, con periodicità 1 e il numero indicato di osservazioni. Ad esempio,
è possibile creare un dataset a scopo di simulazione usando alcuni comandi
"genr" (come "genr uniform()" e "genr normal()") per generare dati di prova.
Questo comando può essere usato insieme a "loop". Si veda anche l'opzione
"seed" del comando "set".

Accesso dal menù: /File/Crea dataset

Comando script: nulldata

# ols Estimation "Stima minimi quadrati ordinari"

Calcola le stime minimi quadrati ordinari (OLS: Ordinary Least Squares) per
il modello specificato.

Oltre alle stime dei coefficienti e agli errori standard, il programma
mostra i p-value per le statistiche t (a due code) e F. Un p-value inferiore
a 0.01 indica significatività al livello dell'1 per cento ed è denotato con
***. ** indica invece la significatività tra l'1 e il 5 per cento, mentre *
indica un livello di significatività tra il 5 e il 10 per cento. Vengono
mostrate anche le statistiche di selezione del modello (il criterio di
informazione di Akaike, AIC, e il criterio di informazione bayesiana di
Schwarz, BIC). La formula usata per AIC è descritta in Akaike (1974), ossia
meno due volte la log-verosimiglianza massimizzata più il doppio del numero
di parametri stimati.

Accesso dal menù: /Modello/OLS - Minimi quadrati ordinari
Accesso alternativo: Pulsante Beta-hat sulla barra degli strumenti

Comando script: ols

# omit Tests "Test per le variabili omesse"

Questo comando deve seguire un comando di stima. Omette le variabili
indicate dal modello precedente e stima il nuovo modello. Se viene omessa
più di una variabile, viene mostrata la statistica F di Wald per le
variabili omesse, insieme al suo p-value (solo per la procedura OLS). Un
p-value inferiore a 0.05 indica che i coefficienti sono congiuntamente
significativi al livello del 5 per cento.

Accesso dal menù: Finestra del modello, /Test/OMIT - Ometti variabili

Comando script: omit

# online Dataset "Accesso ai database online"

Gretl può accedere ai database della Wake Forest University (se il proprio
computer è connesso a internet).

Dal menù "File, Consulta database", selezionare "Sul server di database":
apparirà una finestra che mostra i database disponibili alla Wake Forest (a
seconda della località e della velocità della connessione internet,
l'operazione può richiedere alcuni secondi). Oltre al nome del database e a
una breve descrizione, apparirà un campo "Stato", che mostra se il database
è stato installato localmente (sul disco del computer), e, in caso positivo,
se la versione installata è aggiornata a quella disponibile sul server.

Se un database è stato installato localmente ed è aggiornato, non c'è nessun
vantaggio nell'accedervi attraverso il server, mentre per un database non
installato o non aggiornato, può essere utile scaricare un elenco delle
serie di dati, facendo clic su "Scarica l'elenco delle serie". Apparirà una
nuova finestra da cui è possibile visualizzare i valori di una serie scelta,
vederne il grafico o importarle in gretl. È possibile effettuare queste
operazioni usando il menù "Serie", o attraverso il menù pop-up che appare
facendo clic col tasto destro su una serie. È anche possibile cercare
nell'elenco una variabile in particolare, usando il comando "Trova" del
menù.

Per poter accedere a un database anche offline, basta selezionare la riga
del database desiderato nella prima finestra e premere il pulsante
"Installa". Il database verrà scaricato in formato compresso, verrà
decompresso e installato sul proprio disco fisso, in modo da poter essere
caricato usando il menù "File, Consulta database, gretl".

# pca Statistics "Analisi delle componenti principali"

Analisi delle componenti principali. Mostra gli autovalori della matrice di
correlazione per le variabili nella lista-variabili, insieme alla
proporzione della varianza comune spiegata da ogni componente. Mostra anche
i corrispondenti autovettori (o "pesi della componente").

Usando l'opzione --save, le componenti con autovalori maggiori di 1.0
vengono salvati nel dataset come variabili, con i nomi PC1, PC2 e così via.
Queste variabili artificiali sono definite come la somma del peso della
componente moltiplicato per Xi standardizzato, dove Xi denota la i-esima
variabile nella lista-variabili.

Usando l'opzione --save-all, vengono salvate tutte le componenti, come
descritto sopra.

Accesso dal menù: Pop-up nella finestra principale (selezione multipla)

Comando script: pca

# pergm Statistics "Periodogramma"

Calcola e mostra (graficamente se non si è in modalità batch) lo spettro
della variabile specificata. Senza l'opzione --bartlett, viene mostrato il
periodogramma nel campione, usando l'opzione, lo spettro viene stimato
usando una finestra di Bartlett per i ritardi di lunghezza 2*sqrt(T) (dove T
è l'ampiezza del campione); si veda il capitolo 18 di Econometric Analysis
di Greene. Se viene mostrato il periodogramma del campione, viene mostrato
anche il test t per l'integrazione frazionale della serie ("memoria lunga"):
l'ipotesi nulla è che l'ordine di integrazione sia zero.

Accesso dal menù: /Variabile/Spettro
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

Comando script: pergm

# poisson Estimation "Poisson"

Stimates una regressione di Poisson, in cui la variabile dipendente
rappresenta le occorrenze di un qualche tipo di evento e può assumere solo
valori interi non negativi.

Se una variabile casuale discreta Y segue la distribuzione di Poisson,

  Pr(Y = y) = exp(-v) * v^y / y!

per y = 0, 1, 2,.... La media e la varianza della distribuzione sono
entrambe uguali a v. Nel modello di regressione di Poisson, il parametro v è
rappresentato da una funzione di una o più varabili indipendenti. La
versione più comune del modello (e l'unica supportata da gretl) ha

  v = exp(b0 + b1*x1 + b2*x2 + ...)

, ossia il logaritmo di v è una funzione lineare delle variabili
indipendenti.

Opzionalmente è possibile aggiungere una variabile "offset" alla
specificazione, ossia una variabile di scala, il cui logaritmo viene
aggiunto alla funzione di regressione lineare (con un coefficiente implicito
di 1.0). Ciò ha senso se si ipotizza che il numero di occorrenze dell'evento
in questione sia proporzionale a qualche fattore noto, a parità di altre
condizioni. Ad esempio, il numero di incidenti stradali può essere
ipotizzato proporzionale al volume del traffico, che potrebbe essere
specificato come una variabile di "offset" in un modello di Poisson per il
tasso di incidenti. La variabile di offset dev'essere strettamente positiva.

Accesso dal menù: /Modello/Poisson

Comando script: poisson

# pooled Estimation "Stima pooled OLS"

In modalità predefinita, stima un modello con OLS (si veda "ols" per i
dettagli sulla sintassi) e lo marca come modello pooled o panel, rendendo
disponibile il comando "hausman".

Con l'opzione --unit-weights, viene usato lo stimatore feasible GLS, con i
pesi costruiti a partire dalle varianze specifiche degli errori per ogni
unità cross section. Questa modalità offre un guadagno di efficienza
rispetto alla stima OLS nel caso in cui la varianza differisca tra le
diverse unità.

Se viene usata anche l'opzione --iterate, lo stimatore GLS viene iterato: se
la procedura converge, verranno prodotte stime di massima verosimiglianza.

Accesso dal menù: /Modello/POOLED - Pooled OLS (panel)

Comando script: pooled

# probit Estimation "Stima probit"

Stima un modello probit, per variabili dipendenti binarie. Le stime di
massima verosimiglianza dei coefficienti delle variabili-indipendenti sono
ottenute con i minimi quadrati iterati (il metodo EM,
Expectation-Maximization). Poiché il modello è non-lineare, le pendenze
dipendono dai valori delle variabili indipendenti: le pendenze riportate
sono valutate nelle medie di queste variabili. La statistica chi-quadro
testa l'ipotesi nulla che tutti i coefficienti tranne la costante siano pari
a zero.

Il probit per l'analisi delle proporzioni non è ancora stato implementato in
gretl.

Accesso dal menù: /Modello/Probit

Comando script: probit

# pwe Estimation "Stimatore di Prais-Winsten"

Calcola le stime dei parametri usando la procedura Prais-Winsten,
un'implementazione GLS sviluppata per gestire l'autocorrelazione del primo
ordine nel termine di errore. La procedura viene iterata, così come in
"corc"; la differenza è che mentre Cochrane-Orcutt tralascia la prima
osservazione, Prais-Winsten ne fa uso. Per i dettagli, si veda per esempio
il capitolo 13 di Econometric Analysis (2000) di Greene.

Accesso dal menù: /Modello/Serie storiche/PWE - Prais-Winsten

Comando script: pwe

# reset Tests "Test RESET di Ramsey"

Va eseguito dopo la stima di un modello via OLS. Esegue il test RESET di
Ramsey per la specificazione del modello (non-linearità), aggiungendo alla
regressione il quadrato e il cubo dei valori stimati e calcolando la
statistica F per l'ipotesi nulla che i coefficienti dei due termini aggiunti
siano pari a zero.

Accesso dal menù: Finestra del modello, /Test/RESET - Ramsey

Comando script: reset

# restrict Tests "Test per vincoli lineari"

Impone un insieme di vincoli lineari sull'ultimo modello stimato o su un
sistema di equazioni definito in precedenza. La sintassi del comando è
leggermente diversa in ognuno dei due casi.

In entrambi i casi, l'insieme di vincoli deve essere racchiuso tra i comandi
"restrict" e "end restrict". Nel caso della singola equazione, i vincoli
sono applicati implicitamente all'ultimo modello e vengono valutati appena
viene terminato il comando "restrict". Nel caso del sistema, il comando
iniziale "restrict" deve essere seguito immediatamente dal nome di un
sistema di equazioni definito in precedenza (si veda "system"). I vincoli
vengono valutati nella successiva stima del sistema effettuata con il
comando "estimate".

Ogni vincolo nell'insieme va indicato sotto forma di equazione con una
combinazione lineare dei parametri al primo membro e un valore numerico al
secondo. Nel caso della singola equazione, i parametri sono indicati con la
sintassi bN, dove N rappresenta la posizione nella lista dei regressori, a
partire da zero. Ad esempio, b1 indica il secondo parametro della
regressione. Nel caso del sistema, i parametri vengono indicati con la
sintassi b seguita da due numeri tra parentesi quadre. Il primo numero
rappresenta la posizione dell'equazione all'interno del sistema a partire da
1, mentre il secondo indica la posizione nella lista dei regressori, a
partire da zero. Ad esempio b[2,0] indica il primo parametro della seconda
equazione, mentre b[3,1] il secondo parametro della terza equazione.

I termini b nell'equazione che rappresenta un vincolo possono essere
prefissati da un moltiplicatore numerico, usando il segno * per indicare la
moltiplicazione, ad esempio 3.5*b4.

Ecco un esempio di un insieme di vincoli per un modello stimato in
precedenza:

	restrict
	 b1 = 0
	 b2 - b3 = 0
	 b4 + 2*b5 = 1
	end restrict

Ed ecco un esempio di un insieme di vincoli da applicare a un sistema (se il
nome del sistema non contiene spazi, è possibile tralasciare le virgolette).

	restrict "Sistema 1"
	 b[1,1] = 0
	 b[1,2] - b[2,2] = 0
	 b[3,4] + 2*b[3,5] = 1
	end restrict

Nel casdo dell'equazione singola, i vincoli sono valutati attraverso un test
F di Wald, usando la matrice di covarianza dei coefficienti del modello in
questione. Nel caso del sistema, vengono presentati i risultati completi
della stima del sistema soggetto ai vincoli; la statistica test dipende
dallo stimatore scelto (un test del rapporto di verosimiglianza nel caso di
un sistema stimato con un metodo di massima verosimiglianza, o altrimenti un
test F asintotico).

Accesso dal menù: Modello, /Test/Vincoli lineari

Comando script: restrict

# rmplot Graphs "Grafici range-mean"

Grafici Range-mean: questo comando crea un semplice grafico che aiuta a
capire se una serie storica y(t) ha varianza costante o no. L'intero
campione t=1,...,T viene diviso in piccoli sotto-campioni di dimensione
arbitraria k. Il primo sotto-campione è formato da y(1), ... ,y(k), il
secondo da y(k+1), ... , y(2k), e così via. Per ogni sotto-campione, vengono
calcolati la media e il campo di variazione (range: il valore massimo meno
quello minimo) e viene costruito un grafico con le medie sull'asse
orizzontale e i campi di variazione su quello verticale, in modo che ogni
sotto-campione sia rappresentato da un punto sul piano. Se la varianza della
serie è costante, ci si aspetta che il campo di variazione del
sotto-campione sia indipendente dalla media del sotto-campione; se i punti
si dispongono su una linea crescente, la varianza della serie cresce al
crescere della media, viceversa se i punti si dispongono su una linea
decrescente.

Oltre al grafico, gretl mostra anche le medie e i campi di variazione per
ogni sotto-campione, insieme al coefficiente di pendenza della regressione
OLS del campo di variazione sulla media e il p-value per l'ipotesi nulla che
la pendenza sia zero. Se il coefficiente di pendenza è significativo al
livello del 10 per cento, viene mostrata sul grafico la linea stimata della
regressione del campo di variazione sulla media.

Accesso dal menù: /Variabile/Grafico range-mean

Comando script: rmplot

# runs Tests "Test delle successioni"

Esegue il test non parametrico "delle successioni" per la casualità della
variabile specificata. Ad esempio, per testare la casualità delle deviazioni
dalla mediana per una variabile chiamata x1, con una mediana diversa da
zero, eseguire i comandi seguenti:

	genr signx1 = x1 - median(x1)
	runs signx1

Accesso dal menù: /Variabile/Test delle successioni

Comando script: runs

# sampling Dataset "Impostazione del campione"

Il menù Campione offre vari modi di selezionare un sotto-campione dal
dataset in uso.

Scegliendo "Campione/Imposta in base a dummy...", viene chiesto di scegliere
una variabile dummy (indicatrice), che può assumere solo valori 0 o 1 per
ogni osservazione. Il campione verrà limitato alle osservazioni per cui la
variabile dummy vale 1.

Scegliendo "Campione/Imposta in base a condizione...", viene chiesto di
inserire un'espressione Booleana (logica), dello stesso tipo di quella che
si userebbe per definire una variabile dummy. Ad esempio, l'espressione
"sqft > 1400" selezionerà solo le osservazioni per cui la variabile sqft ha
un valore maggiore di 1400. Le condizioni possono essere concatenate con gli
operatori logici "&" (AND) e "|" (OR) e possono essere negate usando "!"
(NOT).

Il comando "Campione/Scarta valori mancanti" ridefinisce il campione in modo
da escludere tutte le osservazioni per cui i valori di una o più variabili
sono mancanti (lasciando nel campione solo i casi completi).

Per selezionare le osservazioni per cui solo una particolare variabile non
ha valori mancanti, occorre usare "Campione/Imposta in base a condizione..."
e inserire la condizione Booleana "!missing(nome-variabile)" (sostituire
"nome-variabile" con il nome della variabile che si intende usare).

Se sono state associate etichette alle osservazioni, è possibile escludere
una particolare osservazione dal campione impostando una condizione del tipo
obs!="Francia". L'etichetta dell'osservazione deve essere racchiuso tra
virgolette doppie.

Occore tenere presente che ridefinendo il campione basandosi su una
variabile dummy, un'espressione Booleana o sul criterio delle osservazioni
mancanti, tutte le informazioni "strutturali" contenute nel file con la
descrizione dei dati (riguardanti la struttura di serie storiche o di panel
dei dati) vengono perse. È possibile reimpostare la struttura originale con
"Campione/Imposta frequenza e inizio...".

Si veda il manuale di gretl per maggiori dettagli.

# scatters Graphs "Grafici a dispersione multipli"

Produce grafici a dispersione della "Variabile asse Y" selezionata rispetto
ad ognuna delle "Variabili asse X" selezionate. Questi gruppi di grafici
sono utili nell'analisi esplorativa dei dati. È possibile creare fino a sei
grafici alla volta, eventuali variabili in sovrappiù saranno ignorate.

Accesso dal menù: /Dati/Grafici multipli a dispersione

Comando script: scatters

# seed Programming "Seme dei numeri casuali"

Richiede un argomento intero. Imposta il seme del generatore di numeri
pseudo-casuali usato dalle opzioni Variabile casuale uniforme e normale nel
menù Dati, Aggiungi variabili. Di solito il seme è impostato al momento
dell'avvio del programma usando l'orologio di sistema, ma per ottenere
sequenze ripetibili di numeri pseudo-casuali occorre impostarlo manualmente.

# setmiss Dataset "Codice dei valori mancanti"

Imposta un valore numerico che verrà interpretato come "mancante" o "non
applicabile", per una particolare serie (sotto il menù Variabile) o
globalmente per l'intero dataset (sotto il menù Campione).

Gretl ha un codice interno per i valori mancanti, che non sempre può
coincidere con quello usato dai dati importati. Ad esempio, se una serie usa
il valore -1 col significato di "non disponibile", è possibile selezionare
"Imposta codice valori mancanti" nel menù Variabile e immettere il valore
"-1" (senza le virgolette); gretl interpreterà quindi i valori -1 come
osservazioni mancanti.

Accesso dal menù: /Campione/Imposta codice valori mancanti

Comando script: setmiss

# spearman Statistics "Correlazione di rango di Spearman"

Mostra il coefficiente di correlazione di rango di Spearman per una coppia
di variabili. Le variabili non devono essere state ordinate manualmente in
precedenza, se ne occupa la funzione.

L'ordinamento automatico è dal massimo al minimo (ossia il valore massimo
nei dati assume il rango 1). Se occorre invertire l'ordinamento, creare una
variabile che è il negativo della variabile originale, ad esempio:

	genr altx = -x
	spearman altx y

Accesso dal menù: /Modello/SPEARMAN - Correlazione di rango

Comando script: spearman

# store Dataset "Salvataggio dei dati"

Salva l'intero dataset, o un sottoinsieme delle variabili se è stata
indicata una lista-variabili, nel file indicato con file-dati.

L'impostazione predefinita è di salvare i dati nel formato "interno" di
gretl, ma le opzioni del comando permettono di usare formati alternativi. I
dati CSV (Comma-Separated Values, dati separati da virgole) possono essere
letti dai programmi di foglio elettronico e possono essere modificati con un
editor di testi. I formati Octave, R e PcGive sono destinati ad essere usati
con i rispettivi programmi. La compressione con gzip può essere utile per
grandi dataset. Si veda il il manuale di gretl per i dettagli sui vari
formati.

Si noti che le variabili scalari non saranno salvate automaticamente: per
salvarle occorre includerle esplicitamente nella lista-variabili.

Accesso dal menù: /File/Salva dati; /File/Esporta dati

Comando script: store

# system Estimation "Sistemi di equazioni"

Gretl offre la possibilità di stimare sistemi di equazioni, ma al momento
solo tramite l'interfaccia a riga di comando. Si veda l'aiuto online per i
comandi testuali o il manuale di gretl.

Comando script: system

# tobit Estimation "Stima Tobit"

Stima un modello Tobit. Il modello può essere appropriato quando la
variabile dipendente è "troncata". Ad esempio, vengono osservati valori
positivi o nulli della spesa dei consumatori per beni durevoli, ma non
valori negativi; tuttavia le decisioni di spesa possono essere pensate come
derivanti da una propensione al consumo, sottostante e non osservata, che
può anche essere negativa in alcuni casi. Per i dettagli si veda il capitolo
20 di Econometric Analysis di Greene.

Accesso dal menù: /Modello/Tobit

Comando script: tobit

# tsls Estimation "Stima minimi quadrati a due stadi"

Questo comando richiede la scelta di due liste di variabili; le variabili
indipendenti che appaiono nel modello e un elenco di "strumenti". Questi
ultimi comprendono le variabili esogene e/o altre variabili predeterminate
che possono essere usate come regressori per derivare valori stimati delle
variabili endogene del modello.

Se alcune delle variabili del modello sono esogene, vanno incluse in
entrambe le liste.

Accesso dal menù: /Modello/TSLS - Minimi quadrati a due stadi

Comando script: tsls

# var Estimation "Stima autoregressione vettoriale"

Questo comando richiede la specificazione dei seguenti elementi:

  - La variabile dipendente per la prima equazione nel sistema VAR;

  - L'ordine di ritardi, ossia il numero di ritardi di ogni variabile
  presente nel sistema;

  - Eventuali termini "deterministici" (ad es. la costante, un trend
  temporale, variabili dummy stagionali e così via; e

  - Una lista di variabili indipendenti, i cui ritardi saranno inclusi a
  destra delle equazioni (nota: non includere variabili ritardate in questa
  lista, verranno aggiunte automaticamente).

Viene calcolata una regressione separata per ogni variabile del sistema; i
risultati comprendono i test F per i vincoli di uguaglianza a zero su tutti
i ritardi della variabili e un test F per il ritardo massimo, oltre
(opzionalmente) alla scomposizione della varianza della previsione e alle
funzioni di impulso-risposta.

Le decomposizioni della varianza della previsione e le funzioni di
impulso-risposta sono basate sulla decomposizione di Cholesky della matrice
di covarianza contemporanea, e in questo contesto l'ordine in cui vengono
date le variabili stocastiche conta. La prima variabile nella lista viene
considerata come la "più esogena" all'interno del periodo.

Accesso dal menù: /Modello/Serie storiche/VAR - Autoregressione vettoriale

Comando script: var

# vartest Tests "Test per la differenza delle varianze"

Calcola la statistica F per l'ipotesi nulla che le varianze della
popolazione per le variabili selezionate siano uguali e mostra il p-value.

Accesso dal menù: /Dati/Differenza delle varianze

Comando script: vartest

# wls Estimation "Stima minimi quadrati ponderati"

Detta "variabile-pesi" la variabile scelta nel campo "Variabile pesi", viena
stimata una regressione OLS in cui la variabile dipendente è il prodotto
della variabile dipendente selezionata e della variabile-pesi, e anche le
variabili indipendenti sono moltiplicate per la variabile-pesi. Se la
variabile-pesi è una variabile dummy, ciò equivale a eliminare tutte le
osservazioni per cui variabile-pesi vale zero.

Accesso dal menù: /Modello/WLS - Minimi quadrati ponderati

Comando script: wls
