basata su analisi di big datanell’800. Boyle, Charles e Gay-Lussac avrebbero
depositato in qualche archivio i dati (P, T e V)
relativi a vari gas e qualche algoritmo (rigorosamente opaco al ricercatore) sarebbe stato in grado di prevedere una variabile, note le altre. Ma Clapeyron non avrebbe formulato la legge dei gas ideali, non avremmo la costante dei gas, non conosceremmo il numero di Avogadro, il concetto di mole e probabilmente Maxwell e Boltzmann non avrebbero sviluppato la teoria cinetica dei gas. Insomma, un modello è ben più delle previsioni che pure fa. Anche se
scoperta di nuove specie da analisi di sequenze di DNA. Partendo dunque dall’aforisma di Box «tutti i modelli sono sbagliati, qualcuno è utile» conclude che i modelli non siano più necessari. A un po’ di anni da quell’articolo, cosa ne è di quella inclemente sentenza? Siamo nel mezzo di una rivoluzione kuhniana, il cui cambio di
alle tecniche citate da Anderson. Restano però dubbi sulla possibilità che lo scenario prefigurato dai sostenitori e dalle sostenitrici di Anderson possa realizzarsi. Iniziamo chiedendoci cosa sia la conoscenza in ambito scientifico. I sostenitori di Anderson, entusiasti profeti del « correlation is enough», riducono la conoscenza alla capacità di fare previsioni affidabili. Nel metodo scientifico tradizionale la predittività dei modelli è necessaria in quanto funzionale alla loro falsificabilità, ma non è detto sia l’obiettivo. Un esempio ci aiuta a capire. In uno scenario controfattuale, immaginiamo una scienza
paradigma renderà obsoleto il metodo
scientifico? Una risposta a queste domande non c’è (forse perché, parafrasando Kuhn, la generazione che si oppone al cambiamento è ancora «viva e lotta!»). Certo, i big data sempre più pervadono la scienza e sempre più studiosi/e, più o meno consapevoli del sottostante cambio paradigmatico, ricorrono
10
Made with FlippingBook interactive PDF creator