Perchè le strategie algoritmiche smettono di funzionare?

1. Introduzione
Negli ultimi decenni sono state documentate centinaia di anomalie di mercato. Tuttavia, molti studi (Harvey et al., 2015; McLean & Pontiff, 2016) hanno dimostrato che le performance tendono a svanire
fuori dal campione. Questo lavoro analizza 72 anomalie replicate su dati CRSP/COMPUSTAT (1963–2014), con estensioni a mercati internazionali fino al 2018.
Il dibattito sulla solidità delle anomalie di mercato è oggi al centro della finanza empirica. Studi come Harvey, Liu e Zhu (2015) hanno evidenziato che la proliferazione di fattori (più di 400 documentati in letteratura) ha reso difficile distinguere i “veri” segnali da artefatti statistici. McLean e Pontiff (2016) hanno inoltre mostrato che la pubblicazione di una strategia riduce sensibilmente i suoi rendimenti futuri, suggerendo che il mercato assimila rapidamente nuove informazioni.
Il lavoro di Falck, Rej e Thesmar (2021) si inserisce in questa scia, ma compie un passo avanti: non si limita a misurare il decadimento, bensì cerca di identificarne le cause strutturali. Questo approccio è fondamentale perché consente di passare da una constatazione (“le strategie decadono”) a una diagnosi (“decadono per overfitting o per arbitraggio?”).
2. Ipotesi di decadimento
Ipotesi | Descrizione | Implicazioni |
---|---|---|
Arbitraggio | I capitali entrano sulle strategie pubblicate, riducendo i rendimenti. | Decadimento rapido, soprattutto su large cap e titoli liquidi. |
Overfitting | I segnali in-sample sono il risultato di p-hacking e test multipli. | Strategie complesse o sensibili a outlier non si replicano. |
Arbitraggio: l’idea richiama l’ipotesi dei mercati efficienti: un’anomalia è un’opportunità temporanea che si auto-distrugge man mano che viene sfruttata. Gli autori ricordano che i grandi fondi quantitativi, con miliardi di dollari in gestione, possono neutralizzare rapidamente strategie pubbliche, soprattutto su titoli ad alta capitalizzazione.
Overfitting: rappresenta un rischio metodologico. Nel “factor zoo” i ricercatori testano combinazioni multiple di variabili (contabili, di prezzo, di liquidità) e inevitabilmente alcune sembrano predittive solo per caso. Questo problema è accentuato dalla pressione alla pubblicazione e dall’uso di campioni storici limitati.
3. Risultati empirici
Gli autori costruiscono un dataset di 72 anomalie, con una media di Sharpe ratio in-sample pari a 0.98. Tuttavia, la mediana post-pubblicazione scende a circa 0.55, cioè quasi un dimezzamento.
La stima più interessante è che la riduzione segue una regola lineare: il post-publication Sharpe ≈ 0.57 × in-sample Sharpe.
Ciò significa che anche strategie apparentemente robuste (Sharpe > 2 in-sample) finiscono spesso con Sharpe intorno a 1 o inferiore fuori dal campione.
Il decadimento è ancora più marcato nei mercati internazionali: alcune strategie risultano del tutto inefficaci (es. Japan TOPIX 500 con Sharpe ≈ 0 dopo correzione).
Gli autori mostrano che la performance in-sample è mediamente elevata (Sharpe ≈ 0.98), ma si riduce fortemente out-of-sample.
Contesto | Sharpe medio IS | Sharpe medio OOS | Decadimento (%) |
---|---|---|---|
Post-pubblicazione (USA) | 0.98 | 0.55 | −43% |
Internazionale (size-adjusted) | 0.98 | 0.49–0.73 | −25% / −50% |
Large cap (Top 1000) | 0.98 | 0.65 | −33% |
Large cap (Top 500) | 0.98 | 0.78 | −20% |
La relazione è lineare: Sharpe OOS ≈ 0.57 × Sharpe IS. Anche strategie con Sharpe in-sample >2 raramente superano 1 fuori dal campione.
4. Variabili predittive del decadimento
Gli autori sviluppano indicatori quantitativi per distinguere tra arbitraggio e overfitting:
Arbitraggio: variabili legate alla scalabilità (market cap, liquidità, periodo medio di detenzione). Ad esempio, fattori esposti a large cap risultano più vulnerabili al decadimento, coerentemente con l’ipotesi che i capitali istituzionali entrino più facilmente su questi titoli.
Overfitting: la metrica “diff w drop data” (differenza tra Sharpe in-sample e Sharpe dopo aver eliminato lo 0.1% dei contributi estremi) risulta molto predittiva: strategie dipendenti da pochi outlier si rivelano fragili. Allo stesso modo, il numero di operazioni matematiche necessarie per costruire il segnale è un indicatore di complessità artificiale.
Anno di pubblicazione: emerge come fattore trasversale: più recente è la scoperta, più probabile è che si tratti di un falso positivo o che venga rapidamente arbitrata.
- Arbitraggio: holding period, liquidità (Amihud), capitalizzazione media e short leg market cap.
- Overfitting: numero operazioni, campi COMPUSTAT, sensibilità a outlier, robustezza a sottocampioni, t-stat <3, span di quantili.
- Anno di pubblicazione: fattore chiave, spiega il 30% della varianza del decadimento.
5. Risultati quantitativi
Le regressioni mostrano chiaramente la gerarchia delle spiegazioni:
Anno di pubblicazione: coefficiente altamente significativo (t-stat −5.06), R² ≈ 0.30.
Overfitting (sensibilità a outlier, complessità operativa): spiegano ~15% della varianza.
Arbitraggio: spiega solo 5–10% e perde significatività quando incluso insieme agli altri fattori.
👉 Conclusione chiave: il decadimento non è principalmente dovuto all’efficienza dei mercati (arbitraggio), ma al fatto che molte strategie sono fragili per costruzione
Variabile | Effetto sul decadimento | R² univariato |
---|---|---|
Anno di pubblicazione | −5 ppt di Sharpe ogni anno | 0.30 |
N° operazioni (complessità) | Negativo | 0.11 |
Sensibilità a outlier | Negativo | 0.14 |
Arbitraggio (liquidità/cap) | Negativo | 0.05–0.10 |
Regressione combinata: R² ≈ 0.47, di cui anno + overfitting spiegano quasi tutto, mentre l’arbitraggio ha contributo marginale.
6. Implicazioni pratiche
- Preferire semplicità: segnali lineari, stabili e poco sensibili a outlier.
- Valutare la robustezza: test su mercati esteri, sottocampioni e dati recenti.
- Applicare correzioni statistiche: Bonferroni, false discovery rate, shrinkage bayesiano.
- Gestire capacità: stimare la scalabilità e la vulnerabilità a capitali arbitraggisti.
Per i gestori quantitativi:
Robustezza > performance: un fattore con Sharpe 1.0 ma stabile e semplice è più prezioso di uno con Sharpe 2.0 ottenuto con formule complesse.
Globalizzazione del capitale: anche strategie scoperte su mercati locali possono decadere rapidamente a livello globale (es. value e momentum dopo gli anni 2000).
Controlli metodologici: introdurre correzioni statistiche (Bonferroni, false discovery rate) o approcci bayesiani (Jensen et al., 2021) può ridurre il rischio di overfitting.
Per i ricercatori:
Il p-hacking è un problema concreto: l’uso di dataset ampi e test multipli richiede trasparenza metodologica.
L’adozione di replication packages (come Chen & Zimmerman, 2020) dovrebbe diventare standard.
7. Conclusioni
Le strategie sistematiche mostrano un decadimento medio del 25–50% dello Sharpe fuori dal campione. L’analisi suggerisce che overfitting e data mining sono cause principali, mentre l’arbitraggio post-pubblicazione ha un ruolo secondario. La lezione per investitori e ricercatori è di privilegiare robustezza metodologica e semplicità statistica.
8. Riferimenti
- Falck, A., Rej, A., & Thesmar, D. (2021). Why and how systematic strategies decay.
- McLean, R. D., & Pontiff, J. (2016). Does academic research destroy stock return predictability? Journal of Finance.
- Hou, K., Xue, C., & Zhang, L. (2018). Replicating Anomalies. Review of Financial Studies.
- Broderick, T., Giordano, R., & Meager, R. (2020). An Automatic Finite-Sample Robustness Metric.
- Rej, A., Seager, P., & Bouchaud, J.-P. (2019). How should you discount your backtest PnL?.
- Harvey, C. R., Liu, Y., & Zhu, H. (2015). … and the Cross-Section of Expected Returns. Review of Financial Studies.
- Jensen, T., Kelly, B., & Pedersen, L. (2021). Is There a Replication Crisis in Finance?
📬 Vuoi contenuti ancora più approfonditi?
Iscriviti alla nostra newsletter per ricevere:- 📚 Guide gratuite
- 📈 Strategie avanzate di trading
- 🧠 Analisi di libri e paper scientifici
Altri articoli

Backtesting #2
📊 Trading Algoritmico: Piattaforme, API, Backtesting e Strategie Avanzate 🚀 Introduzione Il trading algoritmico rappresenta oggi una delle modalità più avanzate e sofisticate per operare nei mercati finanziari. Dalla selezione

Esistono trader quantitativi di successo?
📊 Possono i Trader Indipendenti Avere Successo nel Trading Quantitativo? È davvero possibile per un trader indipendente emergere e avere successo nel mondo iper-competitivo del trading quantitativo? In un contesto