Domanda:
Come argomentare contro pratiche di ricerca discutibili come P-hacking e Harking?
Kenji
2015-12-20 21:05:15 UTC
view on stackexchange narkive permalink

Sono entrato in conflitto con i coautori quando mi viene chiesto di fare cose che considero discutibili.

  1. Una volta mi è stato detto di provare ogni possibile specifica di una variabile dipendente (conteggio, proporzione, indicatore binario, lo chiami) in una regressione fino a trovare una relazione significativa. Cioè, nessuna giustificazione per scegliere una specifica rispetto a un'altra oltre a trovare un significato. La famosa spedizione di pesca per le stelle marine (nota anche come P-Hacking).

  2. In un'altra occasione mi è stato chiesto di riscrivere una sezione teorica di un articolo per riflettere un ritrovamento accidentale dalla nostra analisi, in modo che risulti come se stessimo ponendo una domanda sul ritrovamento accidentale e avessimo elaborato l'ipotesi supportata a priori . Le famose ipotesi dopo i risultati sono note (Harking).

In entrambi i casi mi sono rifiutato di conformarmi e ho spiegato il mio ragionamento, cosa ha portato a conflitti con l'altra parte. Ho fatto del mio meglio per non sembrare accusatorio (per non dare l'impressione di dubitare dell'etica dell'altra parte), ma ciò ha portato comunque ad un logoramento e ad un peggioramento del rapporto di lavoro. Nella lunga discussione che seguì, mi fu detto che "la scienza sociale non è fatta come le scienze naturali" e che io ero "troppo inflessibile", "troppo positivista" e che tutti fanno le cose che mi è stato chiesto di fare. . La discussione è culminata con la richiesta di "smettere di ostacolare il progresso del paper", cosa che mi ha fatto sentire molto frustrato.

Da allora ho visto diversi casi di quello che sospetto sia questo tipo di pratica di ricerca . Ad esempio, i dottorandi vengono da me per chiedere cosa dovrebbero cambiare nei loro modelli in modo che i loro risultati risultino significativi, e le persone che lavorano nello stesso laboratorio informatico come me mi chiedono lo stesso tipo di aiuto.

Considero queste cose seriamente discutibili da un punto di vista etico e vorrei essere in grado di discuterne in modo efficace. Tuttavia, le altre parti sono solitamente ricercatori o studenti esperti sotto la supervisione di un ricercatore esperto. Da giovane ricercatore, mi sento in svantaggio quando discuto contro. È spesso il caso che discuto contro le istruzioni di qualcuno che ha più esperienza, pubblicazioni e, presumibilmente, conoscenza di me.

È questo uno di quei casi in cui non possiamo fare molto, ma cercare di essere il "cambiamento che vogliamo realizzare", evitarlo e assicurarci di fare le cose giuste da soli ? Dovremmo parlare più spesso? In tal caso, esistono buone strategie per essere più efficaci e convincenti?

p.s. Il tag è scienze sociali a causa del mio campo, ma ritengo che ciò avvenga anche in altre aree e accolgo con favore l'input da altri campi.


EDIT 1: Nell'esempio 2), a no momento qualcuno ha suggerito che avremmo confermato la nuova ipotesi in una nuova serie di dati. L'intenzione era di fingere di aver capito fin dall'inizio, motivo per cui mi sono opposto.

EDIT 2: Giusto per chiarire. Sono consapevole del modo corretto di fare queste cose (es. Convalida incrociata, analisi di conferma in un nuovo set di dati, penalizzazione per più test statistici, ecc.). Questa è una domanda su come sostenere che p-hacking e harking non sono la strada da percorrere.

EDIT 3: Non ero a conoscenza delle forti connotazioni della parola cattiva condotta. L'ho modificato e sostituito con "pratiche di ricerca discutibili"

Sono uno scienziato fisico, non uno scienziato sociale, quindi non conosco gli standard nel tuo campo, ma - questo è davvero considerato "cattiva condotta?" Il tipo di manipolazione che stai descrivendo potrebbe essere un modo legittimo per generare una nuova ipotesi, ma idealmente dovresti testare l'ipotesi utilizzando dati aggiuntivi. Pubblicare prima di avere i nuovi dati potrebbe generare pubblicazioni di bassa qualità che si rivelano prive di valore, ma non credo sia una cattiva condotta. E anche nelle scienze naturali, non esiste una regola per cui non è possibile formulare un'ipotesi dopo aver raccolto i dati.
Ma va bene fingere di aver sempre avuto l'ipotesi? Non mi sento a mio agio nel farlo. Come hai detto, avremmo bisogno di confermare i risultati con nuovi dati o di essere onesti su ciò che abbiamo fatto.
Non riconoscere la natura post-hoc dell'ipotesi è vicino a usare l'inganno per sopravvalutare la qualità dei nostri risultati.
Proprio per quanto riguarda la "spedizione di pesca": questa è oggi chiamata "Data Mining". Non è una forma particolarmente eccitante di fare ricerca, poiché ottieni semplicemente un miscuglio di numeri con più o meno significato e devi leggere nelle loro viscere. Tuttavia, di per sé è legittimo e le persone lo usano per scoprire ipotesi. Non mi piace molto quello stile di ricerca perché non nasce dalla comprensione. Ma poi, la botanica ha sofferto dello stesso problema fino all'unificazione darwiniana. Non sono sicuro che lo definirei illegittimo, solo che non è molto attraente.
Il problema non è la mancanza di giustificazioni teoriche, ma la volontà di capitalizzare l'errore di tipo 1 per ottenere risultati "significativi" pubblicabili. Sconfigge l'intero scopo dell'utilizzo di statistiche inferenziali per cominciare.
@CaptainEmacs È legittimo solo se si correggono più ipotesi (cosa che così poche persone fanno in pratica), o se lo si utilizza esclusivamente come metodo esplorativo e si prevede di raccogliere nuovi dati per verificare eventuali potenziali risultati. [XKCD pertinente] (https://xkcd.com/882/).
@Roger Fan Completamente d'accordo: quando valuti la rilevanza dell'ipotesi, devi pagare la penalità di averla trovata dai dati. In effetti, vedi la mia risposta di seguito.
La "cattiva condotta" è generalmente considerata una critica molto forte. Le persone ti ascolteranno meglio SE NON GRIDI, quindi cerchiamo una parola diversa per descrivere cosa ti preoccupa. Che ne dici di "pratiche di ricerca scadenti" o "approccio sciatto alla ricerca"? Spesso le persone sono sciatte per pigrizia, opportunità o ignoranza. Ma questo è diverso da un intenzionale intento di fuorviare - che la parola "cattiva condotta" mi fa venire in mente.
Vedo. Potrebbe essere stata la mia ignoranza di quella connotazione che ha la parola.
* Discutibile * - Mi piace!
Sfortunatamente, puoi in un "campo nullo", secondo Ioannidis. Quello che stai vedendo sembra endemico delle scienze sociali, il che spiega la crisi di replicabilità riscontrata in quei campi.
Purtroppo ho [conferma empirica] (http://smr.sagepub.com/content/37/1/3.short) che è così.
Vedi http://andrewgelman.com/2015/12/20/once-i-was-told-to-try-every-possible-specification-of-a-dependent-variable-count-proportion-binary-indicator-you -nome-in-una-regressione-fino-a-trovare-una-relazione-significativa-che-è-no /
Wow, ora quello è qualcuno di cui vorrei conoscere l'opinione. Sembra che leggerò quel documento a cui si riferisce.
Ma stai scherzando? Ovviamente non è etico. Ovviamente è una cattiva condotta. Peccato per chiunque dica il contrario. Bravo, Kenji.
@BenCrowell In qualsiasi campo in cui i risultati contano, fare questo è un semplice comportamento scorretto. Se ti venisse prescritto un farmaco dal tuo medico, saresti felice di apprendere che il documento a sostegno dell'uso del farmaco è stato scritto da qualcuno che ha utilizzato questi metodi per ottenere risultati "significativi" per un farmaco senza valore? ** I ricercatori che fanno questo uccidono letteralmente le persone. ** Fuffarsi e fingere di non essere d'aiuto non aiuta. È meno grave se i risultati non contano davvero. Ma se non hanno importanza, perché stai facendo il lavoro?
Hai pensato di chiedere loro di giustificare ogni azione? Se ti chiedono perché vuoi sapere, digli che vuoi imparare. Perché qualcuno dovrebbe guidare i test in quella direzione? Raccogli alcune prove su ciò che stanno proponendo con la loro giustificazione e portala a qualcuno con più esperienza e verifica se azione + giustificazione ha senso. Quando le cose diventano "oscure" o addirittura "strane", chiedi a un "istanza superiore" di arbitrare situazione. Porta tutto a quella persona e chiedigli di farti rimanere anonimo il più possibile. Come se fosse una sua idea o un punto di vista dell'audit.
@gnometorule È come se lanciassi una freccia contro il muro e poi costruissi un bersaglio attorno ad esso. Certo, ogni volta ho colpito nel segno, senza nemmeno provarci. Se rivedi un'ipotesi basata su dati empirici, dovresti raccogliere nuovi dati.
@gnometorule: "Un punto chiave in una corretta analisi statistica è quello di testare un'ipotesi con prove (dati) che non sono state utilizzate per costruire l'ipotesi. Questo è fondamentale perché ogni set di dati contiene alcuni modelli dovuti interamente al caso. Se l'ipotesi non è testata su un diverso set di dati dalla stessa popolazione, è impossibile determinare se i modelli trovati sono modelli casuali. - https://en.wikipedia.org/wiki/Data_dredging
@gnometorule Ricerca sul cancro o sociologia, se formuli il tuo modello basandoti sull'osservazione di un set di dati, quel set di dati non può più essere utilizzato per supportare il tuo modello in nessun contesto se non dicendo "dopo aver esaminato questi dati ho creato questo modello". Se lo presenti come "questo è il mio modello ed è supportato da questa analisi che ho fatto di questi dati" senza menzionare che hai costruito il modello solo dopo aver esaminato i dati che sono risultati errati dalla ricerca perché sei tornato a costruire il bersaglio ovunque il dardo atterrò mentre implicava che il bersaglio era sempre lì.
** Porta la discussione estesa a [chat]. **
Chiedi che la metodologia sia descritta accuratamente nel documento e fornisci la descrizione che desideri includere. Descrivi quello che hai fatto senza prevederlo inutilmente. Se "tutti fanno questo", dovrebbe essere perfettamente corretto includerlo. Se ottieni resistenza, o peggio, qualcuno successivamente lascia cadere la descrizione, allora devi parlare in privato con il decano del tuo dipartimento, fornire esempi (senza nominare) e il tuo l'interpretazione del valore scientifico di quegli esempi e chiedi come il preside vuole che la scienza sia condotta al dipartimento.
@BenCrowell: Potresti provare a chiedere a stats.stackexchange per capire perché questo non è etico.
Otto risposte:
user11599
2015-12-21 03:07:21 UTC
view on stackexchange narkive permalink

Questo genere di cose accade sia nelle scienze sociali che nelle scienze fisiche. Ad esempio, spesso uno scienziato raccoglierà dati per testare una teoria, ma raccoglierà anche molti dati estranei. Le analisi su questi dati estranei spesso dovrebbero essere considerate esplorative ed etichettate come tali (perché risultati significativi potrebbero essere dovuti a test multipli) [Come altro esempio, non vuoi sapere quanto spesso i chimici ripetono un esperimento finché non ottengono una buona resa , quindi fermati e segnala quel risultato senza menzionare che è stato il migliore in 20 esperimenti!]

La soluzione più veloce è accettare di fare le analisi multiple, ma poi dire cosa hai fatto nella sezione metodologia. Se dici di averlo analizzato in diversi modi e un modo ha mostrato significato, i lettori possono decidere se credere o meno al risultato. Dì ai tuoi coautori che non menzionare che hai fatto più analisi significa lasciare la ricerca descritta in modo improprio.

Tuttavia, puoi (occasionalmente) salvare la situazione. Se, ad esempio, hai fatto 10 analisi diverse e hai scelto la migliore, starai bene se il risultato rimarrebbe sotto una correzione di Bonferroni (cioè invece di richiedere significatività al livello 0,05, richiedi significatività ai test 0,05 / # livello). Quindi se il test finale mostra un valore p come 0,000001, probabilmente sei su un terreno sicuro.

Un altro approccio è decidere a priori che alcuni test sono ovvi (di conferma) e alcuni stanno semplicemente cercando dati (esplorativi). Quindi puoi dimostrare i risultati di conferma, etichettando qualsiasi cosa interessante tra i risultati "esplorativi" come "necessita di ulteriori ricerche". Cioè, puoi combinare test ben fondati con "dragaggio dei dati" purché riconosci la differenza tra le due serie di test.

Ma se non è possibile salvare il risultato, io " Insisto che descrivano quello che hanno fatto, con il commento che se sono imbarazzati nel descriverlo, non avrebbero dovuto farlo. :)

Potresti anche aggiungere che spesso è ovvio (almeno per gli statistici) che un ricercatore ha tirato fuori questo trucco. Quando vediamo un test isolato che non ci verrebbe in mente come un approccio ovvio, o un'ipotesi che non scegliamo a priori, sembra sospetto. Ad esempio, di recente ho letto un articolo che affermava che un certo gruppo di persone tende a suicidarsi più spesso se fosse NATO in primavera. Era chiaro che SOLO testare l'effetto della nascita in primavera non era qualcosa che sarebbe accaduto a nessuno, senza testare l'effetto della nascita in altre stagioni. Quindi probabilmente hanno avuto un risultato spurio a causa di confronti multipli.

Sì, conosco tutti i modi per affrontarlo: correggere per confronti multipli, utilizzare la convalida incrociata, ecc. Non obietterei se descrivessimo ciò che abbiamo fatto o se usassimo una di queste tecniche. Il problema è che non è quello che mi viene chiesto di fare (anche no e quello che vedo fare gli altri). Ti ho votato per il "se sei imbarazzato a descriverlo, non avresti dovuto farlo". Proverò a usarlo la prossima volta.
Non si corregge per più confronti dopo aver eseguito tutte le analisi. Naturalmente, si tratta di decisioni. Se a priori non manterrai l'effetto significativo a meno che non sia passato a Bonferroni, allora va bene, ma se lo manterrai indipendentemente, la correzione sarà invalidata. Puoi fare le simulazioni ma non è difficile immaginare perché ciò fallisce considerando che la p per gli effetti nulli è distribuita uniformemente. .05 se probabile quanto .00001.
Raghu Parthasarathy
2015-12-21 09:28:08 UTC
view on stackexchange narkive permalink

Questa è un'ottima domanda. Penso che tu (e altri in situazioni simili) dovreste parlare, ma mi rendo conto che è molto difficile da fare. Ti suggerisco due cose:

  1. Cerca di capire se le persone con cui hai a che fare capiscono che i metodi che stanno proponendo (p- hacking, ecc.) sono rischiosi o meno, cioè se si tratta di una questione di etica o ignoranza. Questo è più difficile di quanto possa sembrare, poiché penso che molte persone sinceramente non capiscano quanto sia facile trovare schemi nel rumore e come i "gradi di libertà del ricercatore" rendano i modelli spuri facili da generare. Chiedere alle persone, in modo non conflittuale, di spiegare come fare test su "ogni possibile specifica di una variabile dipendente" e selezionare quelli con "p<0.05" corrisponde a < Il 5% di set di dati "casuali" aventi una caratteristica di interesse lo renderebbe più chiaro, e forse ti darebbe un'idea della questione dell'etica o dell'ignoranza. Scommetto che una buona parte delle persone non è deliberatamente non etica, ma la loro confusa comprensione dei dati quantitativi oscura il pensiero etico.

  2. Qualcosa che ho trovato utile in contesti correlati è generare dati simulati e mostrare effettivamente il principio che stai discutendo. Ad esempio, genera set di dati di rumore senza caratteristiche e mostra che con abbastanza variabili da confrontare, si può sempre trovare una relazione "significativa". (Ovviamente, senza correggere per confronti multipli.) Può sembrare strano, ma vedere questo nei dati simulati sembra aiutare.

Buona fortuna!

Questa è una bella idea. L'ho provato io stesso da diversi anni ormai. (È così che so che è bello.) Sfortunatamente, ci vuole un tipo specifico di comprensione per la casualità per capire veramente cosa significano i tuoi esempi in 2 nel contesto del p-hacking. E questa mentalità è rara tra gli scienziati sociali e medici. Sono stato in grado di instillarne un po 'in alcune persone con cui lavoro da anni. È una strategia educativa a lungo termine.
Penso che ci siano parecchi commenti sul post originale che tradiscono l'ignoranza che descrivi ....
Martha
2015-12-22 02:55:35 UTC
view on stackexchange narkive permalink

Kenji, negli ultimi anni ho tenuto un corso di formazione continua chiamato Errori comuni nell'uso delle statistiche: individuarli ed evitarli. Spero che alcuni degli approcci che ho adottato possano esserti utili per convincere i tuoi colleghi che sono necessari dei cambiamenti.

Innanzitutto, non inizio dicendo che le cose non sono etiche (anche se potrei arrivare a che alla fine). Parlo invece di errori, incomprensioni e confusioni. Ad un certo punto introduco anche l'idea che "Questo è il modo in cui abbiamo sempre fatto le cose" non lo rende corretto.

Uso anche la metafora del "gioco del telefono" che molte persone hanno giocato da bambini: le persone si siedono in cerchio; una persona sussurra qualcosa all'orecchio della persona accanto a loro; quella persona sussurra ciò che sente alla persona successiva, e così via intorno al cerchio. L'ultima persona dice quello che sente ad alta voce e la prima persona rivela la frase originale. Di solito i due sono così diversi che è divertente. Applicare la metafora all'insegnamento della statistica: qualcuno sta veramente cercando di comprendere le idee complesse della statistica frequentista; alla fine credono di averlo capito e trasmettono la loro percezione (ma in qualche modo imperfetta) agli altri; alcuni dei destinatari (con buone intenzioni) fanno più semplificazioni eccessive o interpretazioni errate e le trasmettono a più persone - e così via su tutta la linea. Alla fine una versione gravemente difettosa appare nei libri di testo e diventa pratica standard.

Le note per il mio corso di educazione continua sono disponibili gratuitamente su http://www.ma.utexas.edu/users/mks/CommonMistakes2015/commonmistakeshome2015.html. Sentiti libero di usarli in qualsiasi modo - ad esempio, organizzare un seminario di discussione informale che li utilizzi (o alcuni di essi) come lettura di base potrebbe aiutare a comunicare le idee. Noterai che il primo "errore comune" discusso è "aspettarsi troppa incertezza". In effetti questo è un errore fondamentale che sta alla base di molto di ciò che è andato storto nell'uso delle statistiche. Le raccomandazioni fornite sono un buon punto di partenza per aiutare i colleghi a iniziare a vedere il punto di tutti gli altri errori.

Il sito web del corso ha anche collegamenti ad alcune demo online che sono utili ad alcuni per comprendere i problemi che sono spesso sorvolato.

Ho anche scritto un po 'di blog sul tema generale su http://www.ma.utexas.edu/blogs/mks/. Alcune delle voci di giugno 2014 sono particolarmente rilevanti.

Spero che questi suggerimenti e risorse siano utili. Non esitate a contattarmi se avete domande.

Captain Emacs
2015-12-20 22:00:03 UTC
view on stackexchange narkive permalink

La tua preoccupazione istintiva di creare ipotesi a partire dai dati e fingere che esistessero fin dall'inizio è sulla strada giusta:

Nelle statistiche, il cosiddetto test del chi-quadrato può essere utilizzato per confrontare i dati con modelli che sono stati ricavati dai dati stessi. Tuttavia, per questo, il test chi-quadrato deve essere adattato essenzialmente per "penalizzare" l'estrazione dei parametri quando si verifica quanto sia significativa la corrispondenza.

Questo non è facilmente generalizzabile ad altre configurazioni, quindi in generale apprendimento teoria e pratica, si suddividono i dati in più gruppi. Ad esempio, dove una parte viene utilizzata per ottimizzare i parametri, una, inizialmente non vista, viene utilizzata per ottimizzare la generalizzazione e l'ultima parte, non vista, non viene mai inserita nella costruzione del modello e viene utilizzata per testare il buon funzionamento delle prime due fasi. Questa si chiama "convalida incrociata".

Forse puoi suggerire (o semplicemente presentare) al tuo gruppo una tale metodologia, suddividendo i dati in modo casuale in diversi componenti; da uno si costruisce il modello, che poi viene testato con i dati invisibili. I dettagli su come eseguire la divisione dipenderanno dal tuo dominio. In questo modo, hai la certezza che il modello sia predittivo. Affinché ciò sia corretto, è necessario assicurarsi che non stia utilizzando il set di dati completo in alcuna forma (nemmeno tramite un collega intelligente che ha ricordato che i dati sono parabolici nel complesso). La cosa migliore è non guardare mai i dati invisibili fino a quando il modello non è completo.

Per quanto riguarda la post-ipotesi, ho scoperto che spesso non è nemmeno necessario. Potresti iniziare con un'ipotesi, poi scoprire che non è valida, ma poi trovare invece un altro fenomeno interessante. Questa si chiama "scoperta" e ne derivano i documenti più interessanti. Se i migliori giornali del tuo settore non accettano questo stile, perché vogliono il ciclo standard "ipotesi-esperimento-convalida", allora il problema è più profondo nella tua comunità che con i tuoi colleghi.

In breve: ricavare modelli dai dati e confrontare la corrispondenza va bene se si ha un modo per penalizzare tale estrazione (come nel chi-quadrato). In caso contrario, è possibile eseguire una "convalida incrociata" per risultati validi. Infine, invece di post-ipotizzare, il mio suggerimento è di ipotizzare, per esempio, invalidare l'ipotesi e dimostrare l'emergere di un'ipotesi diversa.

Sì, quello che hai scritto è in generale in linea con ciò che mi è stato insegnato. Non è che nessuno nel mio campo lo sappia, è solo che sembrano non apprezzare veramente quanto sia problematico solo p-hackerare e usare ipotesi post-hoc per tutto il tempo fingendo che lo abbiamo fatto secondo le regole.
Quindi, questo è davvero un problema. Non si può cambiare facilmente la cultura di un luogo, è meglio andare altrove con una cultura dell'integrità.
Oppure resta dove sei ma collabora con persone di altre istituzioni.
Ben
2015-12-21 23:07:22 UTC
view on stackexchange narkive permalink

Descrivi esattamente cosa hai fatto sul giornale. Finché sarai onesto, l'articolo sarà giudicato dai revisori, dai redattori e dai lettori.

Anche le persone che fanno hacking p-value avranno difficoltà a rimuovere una descrizione onesta dall'articolo. Se ti dicono di rimuoverlo, chiedigli perché e avrai il sopravvento nella discussione risultante.

Questa è la risposta eticamente e scientificamente corretta ma può essere un po 'ingenua, la sfida non è sapere che questa è la risposta corretta, la sfida è convincere gli altri autori ad accettare di pubblicarla effettivamente con tutte queste informazioni. In un mondo ideale, #overlyhonestmethods https://goo.gl/wC76up sarebbe perfettamente accettabile e "professionale" da includere in un documento di ricerca.
Stephan Kolassa
2016-01-07 02:41:30 UTC
view on stackexchange narkive permalink

Già molte buone risposte. Tuttavia, in ambito accademico, è sempre meglio se puoi sostenere la tua posizione con un bel riferimento pubblicato. Fortunatamente, la questione del p-hacking e della replicabilità viene sollevata e affrontata sempre più spesso in diverse discipline.

Lo configurerò come un post CW per raccogliere indicazioni alle pubblicazioni pertinenti che possiamo utilizzare nelle discussioni con i coautori che non vedono il problema con pratiche statistiche discutibili. Tutti, sentitevi liberi di modificare con articoli o documenti di conferenze pertinenti alla vostra disciplina.

Psicologia

  • Ecco un editoriale del Editor-in-Chief di Psychological Science , che è praticamente la madre di tutte le riviste di psicologia (Open Access. Raccomando anche articoli citati da Lindsay.):

    Lindsay, D. Stephen (2015). Replication in Psychological Science. Psychological Science , 26, 1827-1832. DOI: 10.1177 / 0956797615616374.

  • Ecco uno studio su Science che mostra che abbiamo effettivamente una "crisi di replicabilità "in psicologia - un'ampia collaborazione si proponeva di replicare 100 effetti riportati in riviste ben considerate, e solo il 36% ha replicato:

    Open Science Collaboration (2015). Stima della riproducibilità della scienza psicologica. Science , 349, 6251. DOI: 10.1126 / science.aac4716

elisa
2015-12-21 16:47:46 UTC
view on stackexchange narkive permalink

Un'opzione è fare punti "costruttivi". Se i tuoi co-autori sono (come molti sono) abituati a diversi gradi di p-hacking, probabilmente non saranno troppo felici di sentire che i loro risultati non sono pubblicabili così come sono.

Se tu fossi in grado di offrire una soluzione per pubblicare i risultati evitando anche queste cattive pratiche, allora pochi obietterebbero. Il modo migliore sarà probabilmente quello di provare a fare analisi bayesiane. Anche qui (in alcuni casi) risultati non significativi saranno interpretabili e quindi pubblicabili.

Peter Slattery
2015-12-21 12:42:54 UTC
view on stackexchange narkive permalink

Spero che non ti dispiaccia, ma voglio cogliere l'occasione per darti un consiglio diverso da quello che stai chiedendo - per consigliarti di non adottare questo approccio per affrontare questo problema in questo momento .

Presumo che tu voglia (i) un certo livello di successo accademico, sufficiente per sostenere te stesso, e (ii) per migliorare la qualità della ricerca e i benefici sociali che ne derivano. Supponendo di avere ragione, non credo che dovresti portare avanti questo argomento ( in questa fase ) .

Non penso che dovresti portare avanti questo argomento ( in questa fase ) se apprezzi la tua carriera accademica in quanto ti farà bruciare importanti ponti e porte chiuse. Ad esempio, se il tuo supervisore p-hack e tu lo esponi e lo distruggi per questo, allora avrai perso il tuo supporto principale e ridotto drasticamente le tue probabilità di essere in grado di assicurarti una carriera in quest'area.

As in relazione a questo, ( in questa fase ) non credo davvero che tu sia nella posizione ottimale per sfidare l'influenza negativa del p-hacking. Ecco alcuni motivi per cui penso questo. In primo luogo, in relazione a quanto ho detto sopra, se sei agli inizi di una carriera all'interno di uno specifico sistema sociale, non puoi facilmente influenzare il comportamento di coloro che sono già stabiliti in quella carriera e che non ti conoscono né ti rispettano. In secondo luogo, non è possibile comprendere appieno il motivo per cui il sistema funziona in quel modo, né le leve che devono essere azionate per modificare tale operazione, finché non si è acquisita maggiore familiarità con esso. Potresti essere in grado di fare una differenza di livello micro (ad esempio, esponi alcune persone con cui lavori), ma non vedo che sia molto efficace, in quanto ti paralizzerebbe farlo.

Per riassumere il mio pensiero con un aneddoto: immagina di crescere in una città dove tutti gli insegnanti sono corrotti e incompetenti. Pensi che sarebbe meglio protestare contro di loro quando sono a scuola? Probabilmente no, poiché otterresti molto poco e gli insegnanti probabilmente userebbero il loro potere per impedirti di diplomarti e essenzialmente rovinarti la vita. In alternativa, sarebbe meglio tollerare i difetti degli insegnanti finché non sei fuori dal sistema (o più in alto) e nella posizione di cambiare effettivamente le cose? Penso che in tal caso potresti finire in una posizione di autorità e avere le risorse disponibili per fare qualcosa per cambiare il sistema di insegnamento.

Naturalmente, tutto questo è solo la mia opinione e Ho potuto vedere molti modi in cui potresti opporti contro di essa :)

28/12/2015: aggiunta di altri contenuti per spiegare e indirizzare i commenti.

Vorrei porre maggiormente l'accento sul mio punto principale; fare appello al pragmatismo e aspettare un momento migliore per agire. Personalmente, penso che ci sia un tempo e un luogo per l'attivismo, che a volte è meglio tenere la bocca chiusa e aspettare di avere una migliore possibilità di fare qualcosa piuttosto che parlare e farsi sparare per niente. Pertanto, in ogni caso in cui l'attivismo è un'opzione, la decisione se impegnarsi in esso dovrebbe essere subordinata a varie considerazioni, come la gravità del risultato indesiderato, il rischio per l'individuo nel prevenirlo, la sua capacità di prevenirlo e il loro quadro morale (ad esempio, deontologico o utilitaristico). Come dice il proverbio, devi scegliere le tue battaglie; ogni battaglia avrà il suo prezzo e alcuni pedaggi potrebbero non valere la pena pagare per quello che ti danno.

Personalmente, credo che se hai intenzione di pubblicare qualcosa che potrebbe spazzare via l'umanità o finire con qualcuno che viene ucciso, allora dovresti assolutamente fare un sacrificio personale per impedirlo (se puoi fare qualcosa). D'altra parte, se l'attuale risultato 'negativo' che prevedi sta cambiando in modo non etico (secondo le norme attuali di alcuni / la maggior parte degli autori) il focus di un articolo (che 5 persone leggeranno effettivamente) per esaminare una relazione significativa (ad es. e la correlazione alla frequenza del ciclismo) piuttosto che un'altra relazione pianificata in precedenza (ad esempio, sesso e correlazione alla frequenza del ciclismo) che si è rivelata non significativa, e il nuovo risultato è (i) verrai licenziato e l'articolo pubblicato senza o (ii) non verrà pubblicato nulla e nessuno trarrà mai beneficio dalla conoscenza della relazione significativa che hai trovato, quindi sono più convinto che impegnarsi nell'attivismo non sia la strada da percorrere (a questa fase comunque) .

E sì, accetto che i miei argomenti qui siano semplificazioni imperfette di quella che è una realtà molto complessa, ma spero che tu possa capire il mio punto generale e pensaci su.

Probabilmente, ci sarà sempre qualcuno sopra di te con standard etici inferiori alla media, quindi potresti finire per non sfidare mai il sistema. E se lo fai, i tuoi avversari esporranno semplicemente le tue stesse opere che hanno lo stesso difetto contro cui discuterai. Allora sarà dannatamente difficile sembrare credibile.
Sebbene sia ancora un ricercatore junior, sembra che a Kenji venga chiesto di mettere il proprio nome come coautore, o autore principale, su un documento che nasconde la sua metodologia in modo così discutibile e contiene risultati privi di significato. Quella carta non danneggerà la loro carriera adesso? Sicuramente il giovane deve parlare in privato per assicurarsi che il documento non sia fuorviante, né errato, né privo di significato, né raccomandare un cambiamento dannoso all'ordine pubblico.
Non è questione di opinioni. È una questione di pratica etica con conseguenze reali per la carriera di ricercatore, il progresso della scienza e la percezione dello scienziato sociale in generale. In questa fase, quel campo è rotto. In questa fase, quando il 60% dei risultati pubblicati non può essere replicato, nessuno dovrebbe apertamente consigliare il tipo di pratiche OP menzionate. In questa fase, il ricercatore dovrebbe essere guidato dalla sua etica e non aspettare di avere abbastanza potere per fare la cosa giusta. Il tuo commento è un pessimo consiglio.
@DaltonHance: a meno che tu non sia un attivista pronto a dedicare la tua vita a lottare per la cosa giusta; è dannoso e inutile parlare contro lo status quo: non migliorerai le cose per gli altri e peggiorerai le cose per te stesso. È meglio avere uno scienziato etico competente che a volte deve scendere a compromessi: lavorare all'interno del sistema, non contro di esso.
@J.F.Sebastian Questo è un ottimo consiglio per Michael LaCour e Andrew Wakefield. "Fingi finché non ce la fai e poi aggiustalo." Hai presentato una falsa dicotomia. Scegli di essere il paria attivista o l'insider eticamente compromesso ma di buon cuore. Il P-hacking potrebbe non essere moralmente eclatante come una vera e propria fabbricazione, ma la conseguenza è la stessa: scoperte errate presentate come conoscenza scientifica. Queste cose hanno conseguenze reali, anche nelle scienze sociali. Devo solo indicarti i tassi di vaccinazione nelle enclave liberali come una conseguenza reale e potenzialmente mortale della cattiva scienza.
@DaltonHance: è falso interpretare il mio commento in questo modo. Dico le cose come sono, non come dovrebbero essere - è la differenza principale tra Aristotele e la fisica moderna (nessun vero progresso può essere fatto a meno che il mondo non sia accettato così com'è **, non come ci piace essere). La strada per l'inferno è lastricata di buone intenzioni. Considera le conseguenze effettive delle tue azioni, non quelle teoriche. Non si tratta di opinioni, si tratta di fatti - leggi la domanda: il giornale non è migliorato, i rapporti di lavoro dei PO sono peggiori.
@J.F.Sebastian Science non è un lavoro, è una vocazione. Il tuo consiglio va bene per qualcuno che lavora dalle 9 alle 5 e vende penne o carta. Il tuo consiglio potrebbe anche andare bene per qualcuno che lavora in politica, quell'arte del possibile. Il problema secondo te è raffigurare l'accademia solo come un lavoro. Accettare lo status quo è antitetico al progresso scientifico. Chiunque aderisca al tuo punto di vista può detenere temporaneamente il potere, ma sarà condannato alla pattumiera della storia scientifica. Il progresso scientifico non è fatto con statistiche discutibili né è fatto da collaboratori deboli di ginocchio, ma perfettamente congeniali.
Questo è il modo in cui i cattivi sistemi di tutti i tipi vengono sistematicamente trincerati. Raccomandare ai ricercatori di utilizzare pratiche di ricerca non valide / malsane per diventare abbastanza ben considerati da sfidare quelle pratiche è come dire ai potenziali proprietari di schiavi di andare avanti e arricchirsi usando il lavoro schiavo prima di parlare contro la schiavitù.
@J.F.Sebastian Un ultimo punto: il tuo consiglio espone OP alla colpa per associazione. Considera il caso di Donald Green, il coautore di Michael LaCour. La sua reputazione è irrimediabilmente danneggiata a causa della cattiva condotta del suo coautore. Anche se pubblicato, OP potrebbe trovare il suo articolo co-autore raccolto nella blogosfera da artisti del calibro di Andrew Gelman, o altrimenti (e giustamente) messo in discussione. OP dovrebbe quindi unirsi ai suoi coautori in una confutazione, difendendo le stesse pratiche che trova discutibili? È assolutamente assurdo suggerire che i rapporti di lavoro sono più importanti delle pratiche di ricerca etica.
@DaltonHance: ecco perché non mi piace la religione: fa sì che le persone buone facciano cose cattive giustificate da qualche dogma. Quello che stai dicendo è un dogma che ignora la realtà (bruciare ponti non è il modo per rendere meno comune il p-hacking). Non correlato: mi oppongo al fatto che tu chiami i miei commenti "il tuo consiglio" - i miei commenti contengono alcune affermazioni: possono essere giuste o sbagliate (in base alle prove) - nulla in esso è un consiglio. Probabilmente dovresti pubblicare i tuoi commenti come risposta. Vedi, l'ultima frase potrebbe costituire un consiglio, sebbene io considero un mero suggerimento di considerare la questione.
@J.F.Sebastian Stai suggerendo che l'opposizione a pratiche di ricerca non etiche è mero "dogma" e che è una "cosa negativa" incoraggiare le persone a non andare d'accordo con pratiche di ricerca non etiche? Per quanto riguarda l'obiezione al termine "consiglio", come funziona "il lavoro all'interno del sistema, non contro di esso" non "consiglio"?
@KyleStrand: (1) Non lo sto suggerendo. Non distorcere le mie parole. Sarebbe utile se indicassi un frammento specifico (letterale) dai miei commenti che consideri falso e quali prove hai a sostegno della tua affermazione. (2) D'accordo: "lavora dentro ..." suona come un consiglio - quello che volevo dire è che produce risultati migliori (meno p-hacking alla fine) rispetto all'alternativa. Per essere chiari: non è un consiglio.
@J.F.Sebastian Mi sembra che quello che non ti piace è la scienza. Gli scienziati sono famigerati piromani dei ponti. La migliore dinamite i cavalletti per buona misura. Galileo ha bruciato i ponti con la Chiesa. Newton e Hooke hanno bruciato un ponte così ferocemente che la sua luce continua a illuminare il progresso scientifico. La scienza consiste in ciò che può essere testato e replicato oppure confutato. Il P-hacking per risultati "significativi" non è scienza. Mantenere relazioni congeniali non fa parte della scienza.
@J.F.Sebastian non sto distorcendo le tue parole. Hai detto "Quello che [DaltonHance] stai dicendo è un dogma che ignora la realtà", e quello che stava dicendo è che OP sta descrivendo pratiche di ricerca non etiche e che OP non dovrebbe andare d'accordo con loro. Questa è una lettura semplice del tuo commento. Per quanto riguarda il cavillo "non è un [sic?] Consiglio", non sono proprio sicuro del motivo per cui ti sei opposto alla parola "consiglio". Quando dici che una linea di condotta è migliore di un'altra, * questo è un consiglio *. Neanche questo è peggiorativo; il consiglio non è una brutta cosa.
L'ultimo commento di @J.F.Sebastian DaltonHance è forse più forte di quanto avrei detto, ma sono d'accordo con tutto il cuore con "Mantenere relazioni congeniali non fa parte della scienza". Non è incompatibile con la scienza, ma in questo caso sembra che ci sia un conflitto tra la simpatia e la solida scienza. Uno scienziato non dovrebbe mai sacrificare l'etica della ricerca per mantenere un buon rapporto con qualcuno che sostiene pratiche di ricerca non etiche.
Per rispondere rigorosamente alla risposta di Peter qui, ammesso che il PO sia un adulto (non un minore dipendente dalla scuola elementare), il PO dovrebbe prendere questa fase come un'opportunità per riflettere se questo campo, con le sue pratiche date e la qualità dei risultati pubblicati , è quello a cui l'OP vuole davvero dedicare la propria vita.
Commento sulla modifica del 28/12: "... non verrà pubblicato nulla e nessuno potrà mai beneficiare della conoscenza della relazione significativa che hai trovato ...". Quasi sicuramente NON hanno davvero trovato una relazione significativa (soggetto a un vero test di follow-up). È illusorio; questo è l'intero problema con il dragaggio dei dati; e chiunque legga un documento di questo tipo è stato male informato.
Grazie a tutti per i vostri commenti, tutti ragionevoli e ben intenzionati. Non ho tempo per le risposte, quindi ecco un tentativo di concludere. Accetti che sarebbe meglio (i) partecipare a una protesta in cui sai che un pirori non avverrà alcun cambiamento positivo e che sarai incarcerato per aver partecipato, o (ii) attendere un'incerta, ma probabile possibilità di protestare efficacemente dopo? Presumo (ii). È analogo alla situazione in cui si trova l'OP? Credo di si. Tuttavia, è chiaro che alcuni di voi non sono d'accordo. Nessuno di noi può saperlo con certezza, quindi suppongo che dovremmo lasciarlo così.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...