Perchè le strategie algoritmiche smettono di funzionare?
1. Introduzione
Negli ultimi decenni sono state documentate centinaia di anomalie di mercato. Tuttavia, molti studi (Harvey et al., 2015; McLean & Pontiff, 2016) hanno dimostrato che le performance tendono a svanire
fuori dal campione. Questo lavoro analizza 72 anomalie replicate su dati CRSP/COMPUSTAT (1963–2014), con estensioni a mercati internazionali fino al 2018.
Il dibattito sulla solidità delle anomalie di mercato è oggi al centro della finanza empirica. Studi come Harvey, Liu e Zhu (2015) hanno evidenziato che la proliferazione di fattori (più di 400 documentati in letteratura) ha reso difficile distinguere i “veri” segnali da artefatti statistici. McLean e Pontiff (2016) hanno inoltre mostrato che la pubblicazione di una strategia riduce sensibilmente i suoi rendimenti futuri, suggerendo che il mercato assimila rapidamente nuove informazioni.
Il lavoro di Falck, Rej e Thesmar (2021) si inserisce in questa scia, ma compie un passo avanti: non si limita a misurare il decadimento, bensì cerca di identificarne le cause strutturali. Questo approccio è fondamentale perché consente di passare da una constatazione (“le strategie decadono”) a una diagnosi (“decadono per overfitting o per arbitraggio?”).
2. Ipotesi di decadimento
| Ipotesi | Descrizione | Implicazioni |
|---|---|---|
| Arbitraggio | I capitali entrano sulle strategie pubblicate, riducendo i rendimenti. | Decadimento rapido, soprattutto su large cap e titoli liquidi. |
| Overfitting | I segnali in-sample sono il risultato di p-hacking e test multipli. | Strategie complesse o sensibili a outlier non si replicano. |
Arbitraggio: l’idea richiama l’ipotesi dei mercati efficienti: un’anomalia è un’opportunità temporanea che si auto-distrugge man mano che viene sfruttata. Gli autori ricordano che i grandi fondi quantitativi, con miliardi di dollari in gestione, possono neutralizzare rapidamente strategie pubbliche, soprattutto su titoli ad alta capitalizzazione.
Overfitting: rappresenta un rischio metodologico. Nel “factor zoo” i ricercatori testano combinazioni multiple di variabili (contabili, di prezzo, di liquidità) e inevitabilmente alcune sembrano predittive solo per caso. Questo problema è accentuato dalla pressione alla pubblicazione e dall’uso di campioni storici limitati.
3. Risultati empirici
Gli autori costruiscono un dataset di 72 anomalie, con una media di Sharpe ratio in-sample pari a 0.98. Tuttavia, la mediana post-pubblicazione scende a circa 0.55, cioè quasi un dimezzamento.
La stima più interessante è che la riduzione segue una regola lineare: il post-publication Sharpe ≈ 0.57 × in-sample Sharpe.
Ciò significa che anche strategie apparentemente robuste (Sharpe > 2 in-sample) finiscono spesso con Sharpe intorno a 1 o inferiore fuori dal campione.
Il decadimento è ancora più marcato nei mercati internazionali: alcune strategie risultano del tutto inefficaci (es. Japan TOPIX 500 con Sharpe ≈ 0 dopo correzione).
Gli autori mostrano che la performance in-sample è mediamente elevata (Sharpe ≈ 0.98), ma si riduce fortemente out-of-sample.
| Contesto | Sharpe medio IS | Sharpe medio OOS | Decadimento (%) |
|---|---|---|---|
| Post-pubblicazione (USA) | 0.98 | 0.55 | −43% |
| Internazionale (size-adjusted) | 0.98 | 0.49–0.73 | −25% / −50% |
| Large cap (Top 1000) | 0.98 | 0.65 | −33% |
| Large cap (Top 500) | 0.98 | 0.78 | −20% |
La relazione è lineare: Sharpe OOS ≈ 0.57 × Sharpe IS. Anche strategie con Sharpe in-sample >2 raramente superano 1 fuori dal campione.
4. Variabili predittive del decadimento
Gli autori sviluppano indicatori quantitativi per distinguere tra arbitraggio e overfitting:
Arbitraggio: variabili legate alla scalabilità (market cap, liquidità, periodo medio di detenzione). Ad esempio, fattori esposti a large cap risultano più vulnerabili al decadimento, coerentemente con l’ipotesi che i capitali istituzionali entrino più facilmente su questi titoli.
Overfitting: la metrica “diff w drop data” (differenza tra Sharpe in-sample e Sharpe dopo aver eliminato lo 0.1% dei contributi estremi) risulta molto predittiva: strategie dipendenti da pochi outlier si rivelano fragili. Allo stesso modo, il numero di operazioni matematiche necessarie per costruire il segnale è un indicatore di complessità artificiale.
Anno di pubblicazione: emerge come fattore trasversale: più recente è la scoperta, più probabile è che si tratti di un falso positivo o che venga rapidamente arbitrata.
- Arbitraggio: holding period, liquidità (Amihud), capitalizzazione media e short leg market cap.
- Overfitting: numero operazioni, campi COMPUSTAT, sensibilità a outlier, robustezza a sottocampioni, t-stat <3, span di quantili.
- Anno di pubblicazione: fattore chiave, spiega il 30% della varianza del decadimento.
5. Risultati quantitativi
Le regressioni mostrano chiaramente la gerarchia delle spiegazioni:
Anno di pubblicazione: coefficiente altamente significativo (t-stat −5.06), R² ≈ 0.30.
Overfitting (sensibilità a outlier, complessità operativa): spiegano ~15% della varianza.
Arbitraggio: spiega solo 5–10% e perde significatività quando incluso insieme agli altri fattori.
👉 Conclusione chiave: il decadimento non è principalmente dovuto all’efficienza dei mercati (arbitraggio), ma al fatto che molte strategie sono fragili per costruzione
| Variabile | Effetto sul decadimento | R² univariato |
|---|---|---|
| Anno di pubblicazione | −5 ppt di Sharpe ogni anno | 0.30 |
| N° operazioni (complessità) | Negativo | 0.11 |
| Sensibilità a outlier | Negativo | 0.14 |
| Arbitraggio (liquidità/cap) | Negativo | 0.05–0.10 |
Regressione combinata: R² ≈ 0.47, di cui anno + overfitting spiegano quasi tutto, mentre l’arbitraggio ha contributo marginale.
6. Implicazioni pratiche
- Preferire semplicità: segnali lineari, stabili e poco sensibili a outlier.
- Valutare la robustezza: test su mercati esteri, sottocampioni e dati recenti.
- Applicare correzioni statistiche: Bonferroni, false discovery rate, shrinkage bayesiano.
- Gestire capacità: stimare la scalabilità e la vulnerabilità a capitali arbitraggisti.
Per i gestori quantitativi:
Robustezza > performance: un fattore con Sharpe 1.0 ma stabile e semplice è più prezioso di uno con Sharpe 2.0 ottenuto con formule complesse.
Globalizzazione del capitale: anche strategie scoperte su mercati locali possono decadere rapidamente a livello globale (es. value e momentum dopo gli anni 2000).
Controlli metodologici: introdurre correzioni statistiche (Bonferroni, false discovery rate) o approcci bayesiani (Jensen et al., 2021) può ridurre il rischio di overfitting.
Per i ricercatori:
Il p-hacking è un problema concreto: l’uso di dataset ampi e test multipli richiede trasparenza metodologica.
L’adozione di replication packages (come Chen & Zimmerman, 2020) dovrebbe diventare standard.
7. Conclusioni
Le strategie sistematiche mostrano un decadimento medio del 25–50% dello Sharpe fuori dal campione. L’analisi suggerisce che overfitting e data mining sono cause principali, mentre l’arbitraggio post-pubblicazione ha un ruolo secondario. La lezione per investitori e ricercatori è di privilegiare robustezza metodologica e semplicità statistica.
8. Riferimenti
- Falck, A., Rej, A., & Thesmar, D. (2021). Why and how systematic strategies decay.
- McLean, R. D., & Pontiff, J. (2016). Does academic research destroy stock return predictability? Journal of Finance.
- Hou, K., Xue, C., & Zhang, L. (2018). Replicating Anomalies. Review of Financial Studies.
- Broderick, T., Giordano, R., & Meager, R. (2020). An Automatic Finite-Sample Robustness Metric.
- Rej, A., Seager, P., & Bouchaud, J.-P. (2019). How should you discount your backtest PnL?.
- Harvey, C. R., Liu, Y., & Zhu, H. (2015). … and the Cross-Section of Expected Returns. Review of Financial Studies.
- Jensen, T., Kelly, B., & Pedersen, L. (2021). Is There a Replication Crisis in Finance?
📬 Vuoi contenuti ancora più approfonditi?
Iscriviti alla nostra newsletter per ricevere:- 📚 Guide gratuite
- 📈 Strategie avanzate di trading
- 🧠 Analisi di libri e paper scientifici
Altri articoli

Il trading e la mente
Quando sai cosa fare, ma non riesci a farlo: il vero stress del trading Ci sono momenti nel trading in cui il problema non è la strategia.La conosci. L’hai testata.

Qual’è il tempo migliore per chiudere una posizione sull’oro?
Strategia di Trading Ottimale dell’Oro Strategia di Trading Ottimale dell’Oro Basata sul Tempo di Stop Ottimale Abstract Il concetto di tempo di stop ottimale ha un ruolo centrale in statistica,
