Replikationskrise: Unterschied zwischen den Versionen
[gesichtete Version] | [gesichtete Version] |
Admin (Diskussion | Beiträge) |
Admin (Diskussion | Beiträge) |
||
Zeile 15: | Zeile 15: | ||
Laut einer Umfrage von 1.500 Wissenschaftlern im Jahr 2016 berichteten 70% von ihnen, dass sie es versäumt hatten, mindestens ein anderes Experiment eines Wissenschaftlers zu reproduzieren (50% hatten es versäumt, eines ihrer eigenen Experimente zu reproduzieren).<ref>{{cite web|title=Is There a Reproducibility Crisis in Science?|url=https://www.scientificamerican.com/video/is-there-a-reproducibility-crisis-in-science/|publisher=Nature Video, Scientific American|date=28 May 2016|accessdate=15 August 2019}}</ref> Im Jahr 2009 haben 2% der Wissenschaftler, die zur Fälschung von Studien zugelassen wurden, mindestens einmal und 14%, die zur persönlichen Kenntnisnahme von jemandem, der dies tat, zugelassen wurden. Fehlleitungen wurden von medizinischen Forschern häufiger gemeldet als andere.<ref>{{cite journal|title=How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data|first=Daniele|last=Fanelli|date=29 May 2009|journal=PLOS ONE|volume=4|issue=5|pages=e5738|doi=10.1371/journal.pone.0005738|pmid=19478950|pmc=2685008|bibcode=2009PLoSO...4.5738F}}</ref> | Laut einer Umfrage von 1.500 Wissenschaftlern im Jahr 2016 berichteten 70% von ihnen, dass sie es versäumt hatten, mindestens ein anderes Experiment eines Wissenschaftlers zu reproduzieren (50% hatten es versäumt, eines ihrer eigenen Experimente zu reproduzieren).<ref>{{cite web|title=Is There a Reproducibility Crisis in Science?|url=https://www.scientificamerican.com/video/is-there-a-reproducibility-crisis-in-science/|publisher=Nature Video, Scientific American|date=28 May 2016|accessdate=15 August 2019}}</ref> Im Jahr 2009 haben 2% der Wissenschaftler, die zur Fälschung von Studien zugelassen wurden, mindestens einmal und 14%, die zur persönlichen Kenntnisnahme von jemandem, der dies tat, zugelassen wurden. Fehlleitungen wurden von medizinischen Forschern häufiger gemeldet als andere.<ref>{{cite journal|title=How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data|first=Daniele|last=Fanelli|date=29 May 2009|journal=PLOS ONE|volume=4|issue=5|pages=e5738|doi=10.1371/journal.pone.0005738|pmid=19478950|pmc=2685008|bibcode=2009PLoSO...4.5738F}}</ref> | ||
− | === Psychologie | + | === Psychologie === |
Mehrere Faktoren sind zusammengekommen und haben die Psychologie in den Mittelpunkt der Kontroverse gebracht.<ref>{{cite web|last1=Achenbach|first1=Joel|title=No, science's reproducibility problem is not limited to psychology|url=https://www.washingtonpost.com/news/speaking-of-science/wp/2015/08/28/no-sciences-reproducibility-problem-is-not-limited-to-psychology/|website=The Washington Post|accessdate=10 September 2015}}</ref> Ein Großteil des Fokus lag dabei auf dem Bereich der Sozialpsychologie,<ref>{{Cite news|url=https://www.nytimes.com/2017/10/18/magazine/when-the-revolution-came-for-amy-cuddy.html|title=When the Revolution Came for Amy Cuddy|last=Dominus|first=Susan|date=2017-10-18|work=The New York Times|access-date=2017-10-19|language=en-US|issn=0362-4331}}</ref> obwohl andere Bereiche der Psychologie wie die klinische Psychologie,<ref>{{cite journal|last1=Leichsenring|first1=Falk|last2=Abbass|first2=Allan|author-link2=Allan Abbass|last3=Hilsenroth|first3=Mark J.|last4=Leweke|first4=Frank|last5=Luyten|first5=Patrick|last6=Keefe|first6=Jack R.|last7=Midgley|first7=Nick|last8=Rabung|first8=Sven|last9=Salzer|first9=Simone|last10=Steiner|first10=Christiane|title=Biases in research: risk factors for non-replicability in psychotherapy and pharmacotherapy research|journal=[[Psychological Medicine]]|year=April 2017|volume=47|issue=6|pages=1000–1011|doi=10.1017/S003329171600324X|pmid=27955715|url=http://discovery.ucl.ac.uk/1532689/}}</ref><ref>{{cite journal|last=Hengartner|first=Michael P.|title=Raising Awareness for the Replication Crisis in Clinical Psychology by Focusing on Inconsistencies in Psychotherapy Research: How Much Can We Rely on Published Findings from Efficacy Trials?|journal=[[Frontiers in Psychology]]|volume=9|pages=256|publisher=[[Frontiers Media]]|doi=10.3389/fpsyg.2018.00256|pmid=29541051|pmc=5835722|date=February 28, 2018}}</ref> Entwicklungspsychologie,<ref>{{cite journal|last1=Frank|first1=Michael C.|author-link1=Michael C. Frank|last2=Bergelson|first2=Elika|last3=Bergmann|first3=Christina|last4=Cristia|first4=Alejandrina|last5=Floccia|first5=Caroline|last6=Gervain|first6=Judit|last7=Hamlin|first7=J. Kiley|last8=Hannon|first8=Erin E.|last9=Kline|first9=Melissa|last10=Levelt|first10=Claartje|last11=Lew-Williams|first11=Casey|last12=Nazzi|first12=Thierry|last13=Panneton|first13=Robin|last14=Rabagliati|first14=Hugh|last15=Soderstrom|first15=Melanie|last16=Sullivan|first16=Jessica|last17=Waxman|first17=Sandra|author-link17=Sandra Waxman|last18=Yurovsky|first18=Daniel|title=A Collaborative Approach to Infant Research: Promoting Reproducibility, Best Practices, and Theory‐Building|journal=[[Infancy (journal)|Infancy]]|volume=22|issue=4|pages=421–435|date=9 March 2017|url=http://callab.uchicago.edu/papers/fetal-infancy-inpress.pdf|doi=10.1111/infa.12182|access-date=19 December 2018|hdl=10026.1/9942}}</ref> und Bildungsforschung ebenfalls einbezogen wurden.<ref>{{cite journal|last=Tyson|first=Charlie|title=Failure to Replicate|journal=[[Inside Higher Ed]]|date=14 August 2014|url=https://www.insidehighered.com/news/2014/08/14/almost-no-education-research-replicated-new-article-shows|access-date=19 December 2018}}</ref><ref>{{cite journal|last1=Makel|first1=Matthew C.|last2=Plucker|first2=Jonathan A.|author-link2=Jonathan A. Plucker|title=Facts Are More Important Than Novelty: Replication in the Education Sciences|journal=[[Educational Researcher]]|date=1 August 2014|volume=43|issue=6|pages=304–316|doi=10.3102/0013189X14545513|access-date=19 December 2018|url=https://journals.sagepub.com/stoken/rbtfl/w5mrNxPVD8zSg/full}}</ref> According to a 2018 survey of 200 meta-analyses, "psychological research is, on average, afflicted with low statistical power".<ref>{{Cite journal|last=Stanley|first=T. D.|last2=Carter|first2=Evan C.|last3=Doucouliagos|first3=Hristos|date=2018|title=What meta-analyses reveal about the replicability of psychological research.|journal=Psychological Bulletin|language=en|volume=144|issue=12|pages=1325–1346|doi=10.1037/bul0000169|pmid=30321017|issn=1939-1455}}</ref> | Mehrere Faktoren sind zusammengekommen und haben die Psychologie in den Mittelpunkt der Kontroverse gebracht.<ref>{{cite web|last1=Achenbach|first1=Joel|title=No, science's reproducibility problem is not limited to psychology|url=https://www.washingtonpost.com/news/speaking-of-science/wp/2015/08/28/no-sciences-reproducibility-problem-is-not-limited-to-psychology/|website=The Washington Post|accessdate=10 September 2015}}</ref> Ein Großteil des Fokus lag dabei auf dem Bereich der Sozialpsychologie,<ref>{{Cite news|url=https://www.nytimes.com/2017/10/18/magazine/when-the-revolution-came-for-amy-cuddy.html|title=When the Revolution Came for Amy Cuddy|last=Dominus|first=Susan|date=2017-10-18|work=The New York Times|access-date=2017-10-19|language=en-US|issn=0362-4331}}</ref> obwohl andere Bereiche der Psychologie wie die klinische Psychologie,<ref>{{cite journal|last1=Leichsenring|first1=Falk|last2=Abbass|first2=Allan|author-link2=Allan Abbass|last3=Hilsenroth|first3=Mark J.|last4=Leweke|first4=Frank|last5=Luyten|first5=Patrick|last6=Keefe|first6=Jack R.|last7=Midgley|first7=Nick|last8=Rabung|first8=Sven|last9=Salzer|first9=Simone|last10=Steiner|first10=Christiane|title=Biases in research: risk factors for non-replicability in psychotherapy and pharmacotherapy research|journal=[[Psychological Medicine]]|year=April 2017|volume=47|issue=6|pages=1000–1011|doi=10.1017/S003329171600324X|pmid=27955715|url=http://discovery.ucl.ac.uk/1532689/}}</ref><ref>{{cite journal|last=Hengartner|first=Michael P.|title=Raising Awareness for the Replication Crisis in Clinical Psychology by Focusing on Inconsistencies in Psychotherapy Research: How Much Can We Rely on Published Findings from Efficacy Trials?|journal=[[Frontiers in Psychology]]|volume=9|pages=256|publisher=[[Frontiers Media]]|doi=10.3389/fpsyg.2018.00256|pmid=29541051|pmc=5835722|date=February 28, 2018}}</ref> Entwicklungspsychologie,<ref>{{cite journal|last1=Frank|first1=Michael C.|author-link1=Michael C. Frank|last2=Bergelson|first2=Elika|last3=Bergmann|first3=Christina|last4=Cristia|first4=Alejandrina|last5=Floccia|first5=Caroline|last6=Gervain|first6=Judit|last7=Hamlin|first7=J. Kiley|last8=Hannon|first8=Erin E.|last9=Kline|first9=Melissa|last10=Levelt|first10=Claartje|last11=Lew-Williams|first11=Casey|last12=Nazzi|first12=Thierry|last13=Panneton|first13=Robin|last14=Rabagliati|first14=Hugh|last15=Soderstrom|first15=Melanie|last16=Sullivan|first16=Jessica|last17=Waxman|first17=Sandra|author-link17=Sandra Waxman|last18=Yurovsky|first18=Daniel|title=A Collaborative Approach to Infant Research: Promoting Reproducibility, Best Practices, and Theory‐Building|journal=[[Infancy (journal)|Infancy]]|volume=22|issue=4|pages=421–435|date=9 March 2017|url=http://callab.uchicago.edu/papers/fetal-infancy-inpress.pdf|doi=10.1111/infa.12182|access-date=19 December 2018|hdl=10026.1/9942}}</ref> und Bildungsforschung ebenfalls einbezogen wurden.<ref>{{cite journal|last=Tyson|first=Charlie|title=Failure to Replicate|journal=[[Inside Higher Ed]]|date=14 August 2014|url=https://www.insidehighered.com/news/2014/08/14/almost-no-education-research-replicated-new-article-shows|access-date=19 December 2018}}</ref><ref>{{cite journal|last1=Makel|first1=Matthew C.|last2=Plucker|first2=Jonathan A.|author-link2=Jonathan A. Plucker|title=Facts Are More Important Than Novelty: Replication in the Education Sciences|journal=[[Educational Researcher]]|date=1 August 2014|volume=43|issue=6|pages=304–316|doi=10.3102/0013189X14545513|access-date=19 December 2018|url=https://journals.sagepub.com/stoken/rbtfl/w5mrNxPVD8zSg/full}}</ref> According to a 2018 survey of 200 meta-analyses, "psychological research is, on average, afflicted with low statistical power".<ref>{{Cite journal|last=Stanley|first=T. D.|last2=Carter|first2=Evan C.|last3=Doucouliagos|first3=Hristos|date=2018|title=What meta-analyses reveal about the replicability of psychological research.|journal=Psychological Bulletin|language=en|volume=144|issue=12|pages=1325–1346|doi=10.1037/bul0000169|pmid=30321017|issn=1939-1455}}</ref> | ||
Zeile 25: | Zeile 25: | ||
Drittens haben sich mehrere Effekte in der Psychologie bereits vor der aktuellen Replikationskrise als schwer reproduzierbar erwiesen. So hat beispielsweise die Fachzeitschrift "''Judgment and Decision Making''" im Laufe der Jahre mehrere Studien veröffentlicht, die die Theorie des unbewussten Denkens nicht unterstützen konnten. Replikationen erscheinen besonders schwierig, wenn Forschungsstudien vorregistriert und von Forschergruppen durchgeführt werden, die für die fragliche Theorie nicht sehr stark engagiert sind. | Drittens haben sich mehrere Effekte in der Psychologie bereits vor der aktuellen Replikationskrise als schwer reproduzierbar erwiesen. So hat beispielsweise die Fachzeitschrift "''Judgment and Decision Making''" im Laufe der Jahre mehrere Studien veröffentlicht, die die Theorie des unbewussten Denkens nicht unterstützen konnten. Replikationen erscheinen besonders schwierig, wenn Forschungsstudien vorregistriert und von Forschergruppen durchgeführt werden, die für die fragliche Theorie nicht sehr stark engagiert sind. | ||
− | Diese drei Elemente zusammen haben zu einer erneuten Aufmerksamkeit für die Replikation geführt, die vom Psychologen Daniel Kahneman unterstützt wird.<ref>{{cite web|title=A New Etiquette for Replication|url=https://www.scribd.com/doc/225285909/Kahneman-Commentary|first=Daniel|last=Kahneman|via=Scribd}}</ref> Die Untersuchung vieler Effekte hat gezeigt, dass einige Kernüberzeugungen schwer zu replizieren sind. Eine aktuelle Sonderausgabe der Zeitschrift ''Sozialpsychologie'', die sich auf Replikationsstudien konzentrierte, und eine Reihe von bisher vertretenen Überzeugungen erwiesen sich als schwer zu replizieren.<ref>{{cite journal|year=2014 |title= Link to issue<!-- NONE - reference to entire issue -->|url=http://www.psycontent.com/content/l67413865317/?p=3f8268e0307f4036906c158b1667c57a&pi=0 |journal=Social Psychology |publisher=Hogrefe Publishing |volume=45 |issue=3 |archive-url=https://archive.is/20140530230728/http://www.psycontent.com/content/l67413865317/?p=3f8268e0307f4036906c158b1667c57a&pi=0 |archive-date=30 May 2014}}</ref> Eine Sonderausgabe der Zeitschrift | + | Diese drei Elemente zusammen haben zu einer erneuten Aufmerksamkeit für die Replikation geführt, die vom Psychologen Daniel Kahneman unterstützt wird.<ref>{{cite web|title=A New Etiquette for Replication|url=https://www.scribd.com/doc/225285909/Kahneman-Commentary|first=Daniel|last=Kahneman|via=Scribd}}</ref> Die Untersuchung vieler Effekte hat gezeigt, dass einige Kernüberzeugungen schwer zu replizieren sind. Eine aktuelle Sonderausgabe der Zeitschrift ''Sozialpsychologie'', die sich auf Replikationsstudien konzentrierte, und eine Reihe von bisher vertretenen Überzeugungen erwiesen sich als schwer zu replizieren.<ref>{{cite journal|year=2014 |title= Link to issue<!-- NONE - reference to entire issue -->|url=http://www.psycontent.com/content/l67413865317/?p=3f8268e0307f4036906c158b1667c57a&pi=0 |journal=Social Psychology |publisher=Hogrefe Publishing |volume=45 |issue=3 |archive-url=https://archive.is/20140530230728/http://www.psycontent.com/content/l67413865317/?p=3f8268e0307f4036906c158b1667c57a&pi=0 |archive-date=30 May 2014}}</ref> Eine Sonderausgabe der Zeitschrift ''Perspectives on Psychological Science'' aus dem Jahr 2012 konzentrierte sich auch auf Themen, die vom ''publication bias'' bis zur Null-Aversion reichen und zu den Replikationskrisen in der Psychologie beitragen.<ref>[http://pps.sagepub.com/content/7/6.toc Inhaltsverzeichnis]</ref> Im Jahr 2015 wurde die erste offene empirische Studie zur Reproduzierbarkeit in der Psychologie veröffentlicht, das so genannte Reproduzierbarkeitsprojekt. Forscher aus der ganzen Welt arbeiteten zusammen, um 100 empirische Studien aus drei führenden psychologischen Zeitschriften zu replizieren. Bei weniger als der Hälfte der versuchten Replikationen war es gelungen, statistisch signifikante Ergebnisse in den erwarteten Richtungen zu erzielen, obwohl die meisten der versuchten Replikationen Trends in die erwarteten Richtungen hervorriefen.<ref>{{Cite journal | last1 = Open Science Collaboration | title = Estimating the reproducibility of Psychological Science | doi = 10.1126/science.aac4716 | journal = Science | volume = 349 | issue = 6251 | pages = aac4716 | year = 2015 | pmid=26315443| url = http://eprints.keele.ac.uk/877/1/Open%20Science%20%28Science%20Pre-Print%29.pdf | hdl = 10722/230596 }}</ref> |
Viele Forschungsstudien und Metaanalysen werden durch schlechte Qualität und Interessenkonflikte beeinträchtigt, an denen sowohl Autoren als auch professionelle Interessenvertretungen beteiligt sind, was zu vielen falsch Positiven in Bezug auf die Wirksamkeit bestimmter Arten von Psychotherapie führt.<ref>{{cite web | url=http://blogs.plos.org/mindthebrain/2014/04/15/meta-analyses-conducted-professional-organizations-trustworthy/ | title=Are meta analyses conducted by professional organizations more trustworthy? | work=Mind the Brain | date=April 15, 2014 | accessdate=September 13, 2016 | first=James | last=Coyne}}</ref> | Viele Forschungsstudien und Metaanalysen werden durch schlechte Qualität und Interessenkonflikte beeinträchtigt, an denen sowohl Autoren als auch professionelle Interessenvertretungen beteiligt sind, was zu vielen falsch Positiven in Bezug auf die Wirksamkeit bestimmter Arten von Psychotherapie führt.<ref>{{cite web | url=http://blogs.plos.org/mindthebrain/2014/04/15/meta-analyses-conducted-professional-organizations-trustworthy/ | title=Are meta analyses conducted by professional organizations more trustworthy? | work=Mind the Brain | date=April 15, 2014 | accessdate=September 13, 2016 | first=James | last=Coyne}}</ref> | ||
Zeile 32: | Zeile 32: | ||
Der Nobelpreisträger und emeritierte Professor für Psychologie Daniel Kahneman argumentierte, dass die Originalautoren an der Replikation beteiligt werden sollten, da die veröffentlichten Methoden oft zu vage sind.<ref name="Chambers">{{cite news|url=https://www.theguardian.com/science/head-quarters/2014/jun/10/physics-envy-do-hard-sciences-hold-the-solution-to-the-replication-crisis-in-psychology|title=Physics envy: Do 'hard' sciences hold the solution to the replication crisis in psychology?|first=Chris|last=Chambers|date=10 June 2014|newspaper=The Guardian}}</ref> Andere wie Dr. Andrew Wilson sind anderer Meinung und argumentieren, dass die Methoden im Detail beschrieben werden sollten.<ref name="Chambers" /> Eine Untersuchung der Replikationsraten in der Psychologie im Jahr 2012 ergab höhere Erfolgsraten in Replikationsstudien, wenn es zu Überschneidungen mit den Originalautoren einer Studie kam<ref name=":1">{{Cite journal|title = Replications in Psychology Research How Often Do They Really Occur?|journal = Perspectives on Psychological Science|date = 2012-11-01|issn = 1745-6916|pmid = 26168110|pages = 537–542|volume = 7|issue = 6|doi = 10.1177/1745691612460688|first = Matthew C.|last = Makel|first2 = Jonathan A.|last2 = Plucker|first3 = Boyd|last3 = Hegarty}}</ref> (91,7% erfolgreiche Replikationsraten in Studien mit Autorenüberschneidungen im Vergleich zu 64,6% erfolgreichen Replikationsraten ohne Autorenüberschneidungen). | Der Nobelpreisträger und emeritierte Professor für Psychologie Daniel Kahneman argumentierte, dass die Originalautoren an der Replikation beteiligt werden sollten, da die veröffentlichten Methoden oft zu vage sind.<ref name="Chambers">{{cite news|url=https://www.theguardian.com/science/head-quarters/2014/jun/10/physics-envy-do-hard-sciences-hold-the-solution-to-the-replication-crisis-in-psychology|title=Physics envy: Do 'hard' sciences hold the solution to the replication crisis in psychology?|first=Chris|last=Chambers|date=10 June 2014|newspaper=The Guardian}}</ref> Andere wie Dr. Andrew Wilson sind anderer Meinung und argumentieren, dass die Methoden im Detail beschrieben werden sollten.<ref name="Chambers" /> Eine Untersuchung der Replikationsraten in der Psychologie im Jahr 2012 ergab höhere Erfolgsraten in Replikationsstudien, wenn es zu Überschneidungen mit den Originalautoren einer Studie kam<ref name=":1">{{Cite journal|title = Replications in Psychology Research How Often Do They Really Occur?|journal = Perspectives on Psychological Science|date = 2012-11-01|issn = 1745-6916|pmid = 26168110|pages = 537–542|volume = 7|issue = 6|doi = 10.1177/1745691612460688|first = Matthew C.|last = Makel|first2 = Jonathan A.|last2 = Plucker|first3 = Boyd|last3 = Hegarty}}</ref> (91,7% erfolgreiche Replikationsraten in Studien mit Autorenüberschneidungen im Vergleich zu 64,6% erfolgreichen Replikationsraten ohne Autorenüberschneidungen). | ||
+ | |||
+ | ==== Replikationsraten in der Psychologie==== | ||
+ | |||
+ | Ein Bericht der[https://en.wikipedia.org/wiki/Center_for_Open_Science Open Science Collaboration] vom August 2015, der von [https://en.wikipedia.org/wiki/Brian_Nosek Brian Nosek] koordiniert wurde, schätzte die Reproduzierbarkeit von 100 psychologischen Studien aus drei hochrangigen psychologischen Zeitschriften.<ref>{{Cite journal|title = Estimating the reproducibility of psychological science|journal = Science|date = 2015-08-28|issn = 0036-8075|pmid = 26315443|pages = aac4716|volume = 349|issue = 6251|doi = 10.1126/science.aac4716|first = Open Science|last = Collaboration|url = http://eprints.keele.ac.uk/877/1/Open%20Science%20%28Science%20Pre-Print%29.pdf|hdl = 10722/230596}}</ref> Insgesamt lieferten 36% der Replikationen signifikante Ergebnisse (''p'' Wert unter 0,05) im Vergleich zu 97% der ursprünglichen Studien, die signifikante Effekte hatten. Die mittlere Effektgröße in den Replikationen war etwa halb so groß wie die in den Originalstudien berichteten Effekte. | ||
+ | |||
+ | Im gleichen Beitrag wurden die Reproduzierbarkeitsraten und Effektgrößen nach Zeitschriften untersucht (''Journal of Personality and Social Psychology''[JPSP], ''Journal of Experimental Psychology: Learning, Memory, and Cognition'' [JEP:LMC], ''Psychological Science'' [PSCI]) und nach Disziplinen (Sozialpsychologie, kognitive Psychologie). Die Replikationsraten der Studien lagen bei 23% für JPSP, 38% für JEP:LMC und 38% für PSCI. Studien im Bereich der kognitiven Psychologie hatten eine höhere Replikationsrate (50%) als Studien im Bereich der Sozialpsychologie (25%). | ||
+ | |||
+ | Eine Analyse der Publikationsgeschichte in den Top-100-Psychologiezeitschriften zwischen 1900 und 2012 ergab, dass etwa 1,6% aller psychologischen Publikationen Replikationsversuche waren.<ref name=":1" /> Artikel wurden als Replikationsversuch betrachtet, wenn der Begriff "Replikation" im Text erschien. Eine Teilmenge dieser Studien (500 Studien) wurde nach dem Zufallsprinzip für weitere Untersuchungen ausgewählt und ergab eine geringere Replikationsrate von 1,07% (342 der 500 Studien [68,4%] waren tatsächlich Replikationen). In der Teilmenge von 500 Studien zeigte die Analyse, dass 78,9% der veröffentlichten Replikationsversuche erfolgreich waren. Die Rate der erfolgreichen Replikation war signifikant höher, wenn mindestens ein Autor der Originalstudie Teil des Replikationsversuchs war (91,7% gegenüber 64,6%). | ||
+ | |||
+ | Eine 2018 in der Zeitschrift ''Nature Human Behaviour'' veröffentlichte Studie versuchte, 21 sozial- und verhaltenswissenschaftliche Arbeiten aus ''Nature'' und ''Science'' zu replizieren, wobei festgestellt wurde, dass nur 13 erfolgreich repliziert werden konnten.<ref>{{Cite news|url=https://www.wired.com/story/social-science-reproducibility|title=The Science Behind Social Science Gets Shaken Up—Again|work=WIRED|access-date=2018-08-28|language=en-US}}</ref><ref>{{cite journal |last1=Camerer |first1=Colin F. |authorlink1=Colin Camerer|last2=Dreber |first2=Anna |last3=Holzmeister |first3=Felix |last4=Ho |first4=Teck-Hua |last5=Huber |first5=Jürgen |last6=Johannesson |first6=Magnus |last7=Kirchler |first7=Michael |last8=Nave |first8=Gideon |last9=Nosek |first9=Brian A. |last10=Pfeiffer |first10=Thomas |last11=Altmejd |first11=Adam |last12=Buttrick |first12=Nick |last13=Chan |first13=Taizan |last14=Chen |first14=Yiling |last15=Forsell |first15=Eskil |last16=Gampa |first16=Anup |last17=Heikensten |first17=Emma |last18=Hummer |first18=Lily |last19=Imai |first19=Taisuke |last20=Isaksson |first20=Siri |last21=Manfredi |first21=Dylan |last22=Rose |first22=Julia |last23=Wagenmakers |first23=Eric-Jan |last24=Wu |first24=Hang |display-authors=2 |title=Evaluating the replicability of social science experiments in Nature and Science between 2010 and 2015 |journal=Nature Human Behaviour |date=27 August 2018 |volume=2 |issue=9 |pages=637–644 |doi=10.1038/s41562-018-0399-z|pmid=31346273 |url=https://authors.library.caltech.edu/91063/2/41562_2018_399_MOESM1_ESM.pdf }}</ref> Ebenso in einer Studie, die unter der Schirmherrschaft des [https://en.wikipedia.org/wiki/Center_for_Open_Science Center for Open Science], ein Team von 186 Forschern aus 60 verschiedenen Labors (die 36 verschiedene Nationalitäten aus 6 verschiedenen Kontinenten repräsentieren), Replikationen von 28 klassischen und zeitgenössischen Erkenntnissen in der Psychologie durchführte.<ref name="Many Labs 2">{{cite journal |last1=Klein |first1=R.A. |title=Many Labs 2: Investigating Variation in Replicability Across Samples and Settings |journal=Advances in Methods and Practices in Psychological Science |date=2018 |volume=1 |issue=4 |pages=443–490 |doi=10.1177/2515245918810225 }}</ref> Der Fokus der Studie lag nicht nur darauf, ob die Ergebnisse aus den Originalarbeiten repliziert wurden oder nicht, sondern auch darauf, inwieweit die Ergebnisse in Abhängigkeit von Variationen in Proben und Kontexten variierten. Insgesamt konnten 14 der 28 Befunde trotz erheblicher Stichprobengröße nicht repliziert werden. Wenn ein Befund jedoch repliziert wurde, wurde er in den meisten Stichproben repliziert, während er, wenn er nicht repliziert wurde, mit geringer Variation zwischen Stichproben und Kontexten nicht repliziert werden konnte. Dieser Nachweis steht im Widerspruch zu einer populären Erklärung, dass Versäumnisse bei der Replikation in der Psychologie wahrscheinlich auf Änderungen in der Stichprobe zwischen Original- und Replikationsstudie zurückzuführen sind.<ref name="Witkowski">{{cite journal |last1=Witkowski |first1=Tomasz |title=Is the glass half empty or half full? Latest results in the replication crisis in Psychology |journal=Skeptical Inquirer |date=2019 |volume=43 |issue=2 |pages=5–6}}</ref> | ||
+ | |||
+ | ==== Ein soziales Dilemma der ganzen Disziplin==== | ||
+ | |||
+ | Im Versuch, die soziale Struktur herauszuarbeiten, die die Replikation in der Psychologie verhindert, zählten Brian D. Earp und Jim A. C. Everett fünf Punkte auf, warum Replikationsversuche ungewöhnlich sind:<ref>See also [http://journal.frontiersin.org/article/10.3389/fpsyg.2015.00621/abstract Earp and Trafimow], 2015</ref><ref name="Everett 1152">{{Cite journal|title = A tragedy of the (academic) commons: interpreting the replication crisis in psychology as a social dilemma for early-career researchers|journal = Frontiers in Psychology|date = 2015-01-01|pmc = 4527093|pmid = 26300832|pages = 1152|doi = 10.3389/fpsyg.2015.01152|first = Jim Albert Charlton|last = Everett|first2 = Brian D.|last2 = Earp|volume=6}}</ref> | ||
+ | |||
+ | "#Unabhängige, direkte Replikationen der Ergebnisse anderer können für den replizierenden Forscher zeitaufwendig sein. | ||
+ | #"[Replikationen] werden wahrscheinlich Energie und Ressourcen direkt von anderen Projekten abziehen, die das eigene ursprüngliche Denken widerspiegeln. | ||
+ | #"[Replikationen] sind im Allgemeinen schwieriger zu veröffentlichen (größtenteils, weil sie als unoriginell angesehen werden). | ||
+ | #"Selbst wenn [Replikationen] veröffentlicht werden, werden sie wahrscheinlich als "Maurerarbeiten" angesehen, und nicht als wichtige Beiträge zum Thema. | ||
+ | #"[Replikationen] bringen ihren Autoren weniger Anerkennung und Belohnung und sogar weniger grundlegende Karrieresicherheit"<ref name=":3">{{Cite web|title = Resolving the replication crisis in social psychology? A new proposal|url = http://www.spsp.org/blog/resolving-replication-crisis-social-psychology|publisher=Society for Personality and Social Psychology|accessdate = 2015-11-18}}</ref> | ||
+ | |||
+ | Aus diesen Gründen halten die Autoren dafür, dass sich die Psychologie als Disziplin in einem sozialen Dilemma befindet, in dem die Interessen der Disziplin im Widerspruch zu den Interessen des einzelnen Forschers stehen. | ||
+ | |||
+ | ==== Medizin ==== | ||
+ | |||
+ | Medizinische Forscher gehörten zu den ersten, die Alarm schlugen, als es um die mangelnde Reproduzierbarkeit von vorklinischen Studien zu Arzneimitteln ging, die für den industriellen Einsatz bestimmt waren.<ref>[https://www.nature.com/articles/nrd3439-c1 Believe it or not: how much can we rely on published data on potential drug targets?] by Florian Prinz, Thomas Schlange & Khusru Asadullah, in: Nature Reviews Drug Discovery volume10, page712 (2011)</ref> Dieser Mangel an Reproduzierbarkeit und damit an Zuverlässigkeit in der Forschung begann für Pharmaunternehmen zu einem wachsenden Problem zu werden, da ihre Entscheidungen, in welche Arzneimittelziele sie Geld für teure klinische Forschung investieren wollen, hauptsächlich von solchen Studien abhängen. | ||
+ | |||
+ | Von 49 medizinischen Studien von 1990-2003, mit mehr als 1000 Zitierungen, behaupteten 45, dass die studierte Therapie wirksam sei. Von diesen Studien wurden 16% durch Folgestudien widerlegt, 16% hatten stärkere Effekte gefunden als Folgestudien, 44% wurden repliziert, und 24% blieben weitgehend unangefochten.<ref>{{cite journal|title=Contradicted and initially stronger effects in highly cited clinical research|last=Ioannidis JA|date=13 July 2005|journal=JAMA|volume=294|issue=2|pages=218–228|doi=10.1001/jama.294.2.218|pmid=16014596}}</ref> Die US Food and Drug Administration fand in den Jahren 1977-1990 Fehler in 10-20% der medizinischen Studien.<ref>{{cite journal|title=Scientific data audit—A key management tool|first=J. Leslie|last=Glick|date=1 January 1992|volume=2|issue=3|pages=153–168|doi=10.1080/08989629208573811|journal=Accountability in Research}}</ref> In einer 2012 veröffentlichten Arbeit stellten Glenn Begley, ein Biotech-Berater, der bei Amgen arbeitet, und Lee Ellis von der University of Texas fest, dass nur 11% der vorklinischen Krebsstudien repliziert werden könnten.<ref name="Begley-Lee2012">{{Cite journal|last1=Begley |first1=C. G. |last2=Ellis |first2=L. M. |year=2012 |title=Drug Development: Raise Standards for Preclinical Cancer Research |journal=Nature |volume=483 |issue=7391 |pages=531–533|doi=10.1038/483531a |pmid=22460880 |bibcode=2012Natur.483..531B }}</ref><ref name="Begley2013">{{Cite journal|last=Begley |first=C. G. |year=2013 |title=Reproducibility: Six red flags for suspect work |journal=Nature |volume=497 |issue=7450 |pages=433–434|doi=10.1038/497433a |bibcode=2013Natur.497..433B }}</ref> | ||
+ | |||
+ | Ein Artikel von[https://en.wikipedia.org/wiki/John_Ioannidis John Ioannidis], Professor für Medizin und Gesundheitsforschung und -politik an der Stanford University School of Medicine und Professor für Statistik an der Stanford University School of Humanities and Sciences, ging 2016 darauf ein , „warum die meiste klinische Forschung nichts nützt“ ("Why Most Clinical Research Is Not Useful")".<ref name="Ioannidis2016">{{cite journal | last1 = Ioannidis | first1 = JPA | year = 2016 | title = Why Most Clinical Research Is Not Useful | journal = PLoS Med | volume = 13 | issue = 6| page = e1002049 | doi = 10.1371/journal.pmed.1002049 | pmid = 27328301 | pmc = 4915619 }}</ref> Im Artikel legte Ioannidis einige der Probleme dar und forderte eine Reform mit bestimmten Charakteristika, damit die medizinische Forschung wieder nützlich sei; ein Beispiel dafür war die Notwendigkeit, dass die Medizin "patientenzentriert" sein müsse (z.B. in Form des Patient-Centered Outcomes Research Institute) anstelle der derzeitigen Praxis, sich hauptsächlich um "die Bedürfnisse von Ärzten, Forschern oder Sponsoren" zu kümmern. Ioannidis ist seit der 2005 erschienenen Arbeit "Why Most Published Research Findings Are False"<ref>{{cite journal|title=Why Most Published Research Findings Are False|journal=[[PLoS Medicine]]|date=August 1, 2005|issn=1549-1277|pmc=1182327|pmid=16060722|volume=2|issue=8|doi=10.1371/journal.pmed.0020124|first=John P. A.|last=Ioannidis|pages=e124}}</ref> bekannt für seinen Forschungsschwerpunkt auf der Wissenschaft selbst. | ||
Version vom 6. September 2019, 22:35 Uhr
Der folgende Textabschnitt basiert auf dem Artikel „Replication Crisis“ aus Wikipedia, gelesen am 31.8.2019, und steht unter der Lizenz Creative Commons CC-BY-SA 3.0 Unported (Kurzfassung). In der Wikipedia ist auf der genannten Seite eine Liste der Autoren verfügbar. Änderungen möglich.
Diese FreeWiki-Seite ist noch als ein Fragment zu betrachten, d. h. es ist keine strukturierte Seite, sondern nur eine Sammlung von Material oder Textvorschlägen.
Der entsprechende Wikipedia-Artikel wird für nicht ausreichend, nicht zuverlässig und / oder manipuliert gehalten. Hier im FreeWiki wird versucht, eine sachlich korrekte Seite zu erstellen.
Dieser Artikel ist eng mit dem Artikel über den Decline Effect verbunden, welcher Teil dieser Krise ist. Für weitere Erklärungen und Material siehe auch dort.
Die Replikationskrise (oder Wiederholbarkeitskrise oder Reproduzierbarkeitskrise) ist eine andauernde (2019) methodische Krise, in der festgestellt wurde, dass viele wissenschaftliche Studien schwer oder unmöglich zu reproduzieren oder zu wiederholen sind. Die Replikationskrise betrifft die Sozial- und Biowissenschaften am stärksten, [1][2], während die exakten Wissenschaften immer noch zögern, sich dem Problem überhaupt zu stellen und in ihrer Forschung meistens nicht einmal Verblindung verwenden.[3] Die Krise hat langjährige Wurzeln. Der Begriff selbst wurde Anfang 2010 geprägt[4] als Teil eines wachsenden Problembewusstseins. Die Replikationskrise bildet in der Wissenschaftstheorie einen wichtigen Forschungsgegenstand. [5]
Da die Reproduzierbarkeit von Experimenten ein wesentlicher Bestandteil der wissenschaftlichen Methode ist,[6] hat die Unmöglichkeit, die Studien anderer zu replizieren, potenziell schwerwiegende Folgen für viele Wissenschaftsbereiche, in denen bedeutende Theorien auf nicht reproduzierbaren experimentellen Arbeiten basieren. Die Replikationskrise wurde insbesondere im Bereich der Psychologie (insbesondere der Sozialpsychologie) und in der Medizin diskutiert, wo eine Reihe von Bemühungen unternommen wurden, klassische Ergebnisse neu zu untersuchen und zu versuchen, sowohl die Zuverlässigkeit der Ergebnisse als auch, wenn sie sich als unzuverlässig erweisen, die Gründe für das Scheitern der Replikation zu bestimmen.[7][8]
Inhaltsverzeichnis
Umfang der Krise
Insgesamt
Laut einer Umfrage von 1.500 Wissenschaftlern im Jahr 2016 berichteten 70% von ihnen, dass sie es versäumt hatten, mindestens ein anderes Experiment eines Wissenschaftlers zu reproduzieren (50% hatten es versäumt, eines ihrer eigenen Experimente zu reproduzieren).[9] Im Jahr 2009 haben 2% der Wissenschaftler, die zur Fälschung von Studien zugelassen wurden, mindestens einmal und 14%, die zur persönlichen Kenntnisnahme von jemandem, der dies tat, zugelassen wurden. Fehlleitungen wurden von medizinischen Forschern häufiger gemeldet als andere.[10]
Psychologie
Mehrere Faktoren sind zusammengekommen und haben die Psychologie in den Mittelpunkt der Kontroverse gebracht.[11] Ein Großteil des Fokus lag dabei auf dem Bereich der Sozialpsychologie,[12] obwohl andere Bereiche der Psychologie wie die klinische Psychologie,[13][14] Entwicklungspsychologie,[15] und Bildungsforschung ebenfalls einbezogen wurden.[16][17] According to a 2018 survey of 200 meta-analyses, "psychological research is, on average, afflicted with low statistical power".[18]
Erstens wurden fragwürdige Forschungspraktiken („questionable research practices“ = QRPs) als üblich im Bereich.[19] Solche Praktiken, obwohl sie nicht absichtlich betrügerisch sind, beinhalten die Nutzung der Grauzone akzeptabler wissenschaftlicher Praktiken oder die Nutzung der Flexibilität bei der Datenerfassung, -analyse und -berichterstattung, oft in dem Bestreben, ein gewünschtes Ergebnis zu erzielen. Beispiele für QRPs sind selektive Berichterstattung oder teilweise Veröffentlichung von Daten (nur einige der Studienbedingungen oder gesammelte abhängige Messungen in einer Publikation), optionales Stoppen (Wahl, wann die Datenerhebung gestoppt werden soll, oft basierend auf der statistischen Signifikanz von Tests), p-Wertrundung (Aufrunden der p-Werte auf 0.05, um statistische Signifikanz nahezulegen), den Schubladeneffekt (Nichtveröffentlichung von Daten), das Post-Hoc-Storytelling (Framing explorativer Analysen als Bestätigungsanalysen) und die Manipulation von Ausreißern (entweder das Entfernen von Ausreißern oder das Belassen von Ausreißern in einem Datensatz, um einen statistischen Test signifikant wirken zu lassen).[19][20][21][22] Eine Umfrage unter über 2.000 Psychologen ergab, dass eine Mehrheit der Befragten die Verwendung mindestens eines QRP zugelassen hat.[19] Falsch positive Schlussfolgerungen, die sich oft aus dem Druck zur Veröffentlichung oder des eigenen „confirmation bias“ des Autors ergeben, sind eine inhärente Gefahr für das Feld und erfordern ein gewisses Maß an Skepsis seitens der Leser.[23]
Zweitens haben sich insbesondere die Psychologie und die Sozialpsychologie im Mittelpunkt mehrerer Skandale wiedergefunden. bei denen es um echten Forschungsbetrug ging, vor allem die eingestandene Erfindung von Daten durch Diederik Stapel[24] sowie Vorwürfe gegen andere. Die meisten Wissenschaftler erkennen jedoch an, dass Betrug vielleicht der geringere Beitrag zu Replikationskrisen ist.
Drittens haben sich mehrere Effekte in der Psychologie bereits vor der aktuellen Replikationskrise als schwer reproduzierbar erwiesen. So hat beispielsweise die Fachzeitschrift "Judgment and Decision Making" im Laufe der Jahre mehrere Studien veröffentlicht, die die Theorie des unbewussten Denkens nicht unterstützen konnten. Replikationen erscheinen besonders schwierig, wenn Forschungsstudien vorregistriert und von Forschergruppen durchgeführt werden, die für die fragliche Theorie nicht sehr stark engagiert sind.
Diese drei Elemente zusammen haben zu einer erneuten Aufmerksamkeit für die Replikation geführt, die vom Psychologen Daniel Kahneman unterstützt wird.[25] Die Untersuchung vieler Effekte hat gezeigt, dass einige Kernüberzeugungen schwer zu replizieren sind. Eine aktuelle Sonderausgabe der Zeitschrift Sozialpsychologie, die sich auf Replikationsstudien konzentrierte, und eine Reihe von bisher vertretenen Überzeugungen erwiesen sich als schwer zu replizieren.[26] Eine Sonderausgabe der Zeitschrift Perspectives on Psychological Science aus dem Jahr 2012 konzentrierte sich auch auf Themen, die vom publication bias bis zur Null-Aversion reichen und zu den Replikationskrisen in der Psychologie beitragen.[27] Im Jahr 2015 wurde die erste offene empirische Studie zur Reproduzierbarkeit in der Psychologie veröffentlicht, das so genannte Reproduzierbarkeitsprojekt. Forscher aus der ganzen Welt arbeiteten zusammen, um 100 empirische Studien aus drei führenden psychologischen Zeitschriften zu replizieren. Bei weniger als der Hälfte der versuchten Replikationen war es gelungen, statistisch signifikante Ergebnisse in den erwarteten Richtungen zu erzielen, obwohl die meisten der versuchten Replikationen Trends in die erwarteten Richtungen hervorriefen.[28]
Viele Forschungsstudien und Metaanalysen werden durch schlechte Qualität und Interessenkonflikte beeinträchtigt, an denen sowohl Autoren als auch professionelle Interessenvertretungen beteiligt sind, was zu vielen falsch Positiven in Bezug auf die Wirksamkeit bestimmter Arten von Psychotherapie führt.[29]
Obwohl die britische Zeitung The Independent schrieb, dass die Ergebnisse des Reproduzierbarkeitsprojektes zeigen, dass ein Großteil der veröffentlichten Forschung nur "Psycho-Gequatsche" ist,[30] bedeutet die Replikationskrise nicht unbedingt, dass Psychologie unwissenschaftlich ist.[31][32][33] Vielmehr ist dieser Prozess ein gesunder, wenn auch manchmal bitterer Teil des wissenschaftlichen Prozesses, in dem alte Ideen oder solche, die einer sorgfältigen Prüfung nicht standhalten können, beschnitten werden,[34][35] auch wenn dieser Stutzungsprozess nicht immer effektiv ist.[36][37] Die Konsequenz ist, dass einige Bereiche der Psychologie, die einst als solide angesehen wurden, wie z.B. Social Priming, aufgrund gescheiterter Replikationen zunehmend unter die Lupe genommen werden.[38]
Der Nobelpreisträger und emeritierte Professor für Psychologie Daniel Kahneman argumentierte, dass die Originalautoren an der Replikation beteiligt werden sollten, da die veröffentlichten Methoden oft zu vage sind.[39] Andere wie Dr. Andrew Wilson sind anderer Meinung und argumentieren, dass die Methoden im Detail beschrieben werden sollten.[39] Eine Untersuchung der Replikationsraten in der Psychologie im Jahr 2012 ergab höhere Erfolgsraten in Replikationsstudien, wenn es zu Überschneidungen mit den Originalautoren einer Studie kam[40] (91,7% erfolgreiche Replikationsraten in Studien mit Autorenüberschneidungen im Vergleich zu 64,6% erfolgreichen Replikationsraten ohne Autorenüberschneidungen).
Replikationsraten in der Psychologie
Ein Bericht derOpen Science Collaboration vom August 2015, der von Brian Nosek koordiniert wurde, schätzte die Reproduzierbarkeit von 100 psychologischen Studien aus drei hochrangigen psychologischen Zeitschriften.[41] Insgesamt lieferten 36% der Replikationen signifikante Ergebnisse (p Wert unter 0,05) im Vergleich zu 97% der ursprünglichen Studien, die signifikante Effekte hatten. Die mittlere Effektgröße in den Replikationen war etwa halb so groß wie die in den Originalstudien berichteten Effekte.
Im gleichen Beitrag wurden die Reproduzierbarkeitsraten und Effektgrößen nach Zeitschriften untersucht (Journal of Personality and Social Psychology[JPSP], Journal of Experimental Psychology: Learning, Memory, and Cognition [JEP:LMC], Psychological Science [PSCI]) und nach Disziplinen (Sozialpsychologie, kognitive Psychologie). Die Replikationsraten der Studien lagen bei 23% für JPSP, 38% für JEP:LMC und 38% für PSCI. Studien im Bereich der kognitiven Psychologie hatten eine höhere Replikationsrate (50%) als Studien im Bereich der Sozialpsychologie (25%).
Eine Analyse der Publikationsgeschichte in den Top-100-Psychologiezeitschriften zwischen 1900 und 2012 ergab, dass etwa 1,6% aller psychologischen Publikationen Replikationsversuche waren.[40] Artikel wurden als Replikationsversuch betrachtet, wenn der Begriff "Replikation" im Text erschien. Eine Teilmenge dieser Studien (500 Studien) wurde nach dem Zufallsprinzip für weitere Untersuchungen ausgewählt und ergab eine geringere Replikationsrate von 1,07% (342 der 500 Studien [68,4%] waren tatsächlich Replikationen). In der Teilmenge von 500 Studien zeigte die Analyse, dass 78,9% der veröffentlichten Replikationsversuche erfolgreich waren. Die Rate der erfolgreichen Replikation war signifikant höher, wenn mindestens ein Autor der Originalstudie Teil des Replikationsversuchs war (91,7% gegenüber 64,6%).
Eine 2018 in der Zeitschrift Nature Human Behaviour veröffentlichte Studie versuchte, 21 sozial- und verhaltenswissenschaftliche Arbeiten aus Nature und Science zu replizieren, wobei festgestellt wurde, dass nur 13 erfolgreich repliziert werden konnten.[42][43] Ebenso in einer Studie, die unter der Schirmherrschaft des Center for Open Science, ein Team von 186 Forschern aus 60 verschiedenen Labors (die 36 verschiedene Nationalitäten aus 6 verschiedenen Kontinenten repräsentieren), Replikationen von 28 klassischen und zeitgenössischen Erkenntnissen in der Psychologie durchführte.[44] Der Fokus der Studie lag nicht nur darauf, ob die Ergebnisse aus den Originalarbeiten repliziert wurden oder nicht, sondern auch darauf, inwieweit die Ergebnisse in Abhängigkeit von Variationen in Proben und Kontexten variierten. Insgesamt konnten 14 der 28 Befunde trotz erheblicher Stichprobengröße nicht repliziert werden. Wenn ein Befund jedoch repliziert wurde, wurde er in den meisten Stichproben repliziert, während er, wenn er nicht repliziert wurde, mit geringer Variation zwischen Stichproben und Kontexten nicht repliziert werden konnte. Dieser Nachweis steht im Widerspruch zu einer populären Erklärung, dass Versäumnisse bei der Replikation in der Psychologie wahrscheinlich auf Änderungen in der Stichprobe zwischen Original- und Replikationsstudie zurückzuführen sind.[45]
Ein soziales Dilemma der ganzen Disziplin
Im Versuch, die soziale Struktur herauszuarbeiten, die die Replikation in der Psychologie verhindert, zählten Brian D. Earp und Jim A. C. Everett fünf Punkte auf, warum Replikationsversuche ungewöhnlich sind:[46][47]
"#Unabhängige, direkte Replikationen der Ergebnisse anderer können für den replizierenden Forscher zeitaufwendig sein.
- "[Replikationen] werden wahrscheinlich Energie und Ressourcen direkt von anderen Projekten abziehen, die das eigene ursprüngliche Denken widerspiegeln.
- "[Replikationen] sind im Allgemeinen schwieriger zu veröffentlichen (größtenteils, weil sie als unoriginell angesehen werden).
- "Selbst wenn [Replikationen] veröffentlicht werden, werden sie wahrscheinlich als "Maurerarbeiten" angesehen, und nicht als wichtige Beiträge zum Thema.
- "[Replikationen] bringen ihren Autoren weniger Anerkennung und Belohnung und sogar weniger grundlegende Karrieresicherheit"[48]
Aus diesen Gründen halten die Autoren dafür, dass sich die Psychologie als Disziplin in einem sozialen Dilemma befindet, in dem die Interessen der Disziplin im Widerspruch zu den Interessen des einzelnen Forschers stehen.
Medizin
Medizinische Forscher gehörten zu den ersten, die Alarm schlugen, als es um die mangelnde Reproduzierbarkeit von vorklinischen Studien zu Arzneimitteln ging, die für den industriellen Einsatz bestimmt waren.[49] Dieser Mangel an Reproduzierbarkeit und damit an Zuverlässigkeit in der Forschung begann für Pharmaunternehmen zu einem wachsenden Problem zu werden, da ihre Entscheidungen, in welche Arzneimittelziele sie Geld für teure klinische Forschung investieren wollen, hauptsächlich von solchen Studien abhängen.
Von 49 medizinischen Studien von 1990-2003, mit mehr als 1000 Zitierungen, behaupteten 45, dass die studierte Therapie wirksam sei. Von diesen Studien wurden 16% durch Folgestudien widerlegt, 16% hatten stärkere Effekte gefunden als Folgestudien, 44% wurden repliziert, und 24% blieben weitgehend unangefochten.[50] Die US Food and Drug Administration fand in den Jahren 1977-1990 Fehler in 10-20% der medizinischen Studien.[51] In einer 2012 veröffentlichten Arbeit stellten Glenn Begley, ein Biotech-Berater, der bei Amgen arbeitet, und Lee Ellis von der University of Texas fest, dass nur 11% der vorklinischen Krebsstudien repliziert werden könnten.[52][53]
Ein Artikel vonJohn Ioannidis, Professor für Medizin und Gesundheitsforschung und -politik an der Stanford University School of Medicine und Professor für Statistik an der Stanford University School of Humanities and Sciences, ging 2016 darauf ein , „warum die meiste klinische Forschung nichts nützt“ ("Why Most Clinical Research Is Not Useful")".[54] Im Artikel legte Ioannidis einige der Probleme dar und forderte eine Reform mit bestimmten Charakteristika, damit die medizinische Forschung wieder nützlich sei; ein Beispiel dafür war die Notwendigkeit, dass die Medizin "patientenzentriert" sein müsse (z.B. in Form des Patient-Centered Outcomes Research Institute) anstelle der derzeitigen Praxis, sich hauptsächlich um "die Bedürfnisse von Ärzten, Forschern oder Sponsoren" zu kümmern. Ioannidis ist seit der 2005 erschienenen Arbeit "Why Most Published Research Findings Are False"[55] bekannt für seinen Forschungsschwerpunkt auf der Wissenschaft selbst.
Fußnoten
- ↑ Schooler, J. W. (2014). "Metascience could rescue the 'replication crisis'". Nature. 515 (7525): 9. Bibcode:2014Natur.515....9S. doi:10.1038/515009a. PMID 25373639.
- ↑ Smith, Noah. "Why 'Statistical Significance' Is Often Insignificant". Bloomberg. Retrieved 7 November 2017.
- ↑ Rupert Sheldrake: The Science Delusion – Freeing the Spirit of Enquiry; London 2012, Hodder& Stoughton, ISBN 978 1 444 72795 1. Chapter 11. Illusions of Objectivity.
- ↑ Pashler, Harold; Wagenmakers, Eric Jan (2012). "Editors' Introduction to the Special Section on Replicability in Psychological Science: A Crisis of Confidence?". Perspectives on Psychological Science. 7 (6): 528–530. doi:10.1177/1745691612465253. PMID 26168108.
- ↑ Fidler, Fiona; Wilcox, John (2018). "Reproducibility of Scientific Results". The Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University. Retrieved 19 May 2019.
- ↑ Staddon, John (2017) Scientific Method: How science works, fails to work or pretends to work. Taylor and Francis.
- ↑ Gary Marcus (May 1, 2013). "The Crisis in Social Psychology That Isn't". The New Yorker.
- ↑ Jonah Lehrer (December 13, 2010). "The Truth Wears Off". The New Yorker.
- ↑ "Is There a Reproducibility Crisis in Science?". Nature Video, Scientific American. 28 May 2016. Retrieved 15 August 2019.
- ↑ Fanelli, Daniele (29 May 2009). "How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data". PLOS ONE. 4 (5): e5738. Bibcode:2009PLoSO...4.5738F. doi:10.1371/journal.pone.0005738. PMC 2685008. PMID 19478950.
- ↑ Achenbach, Joel. "No, science's reproducibility problem is not limited to psychology". The Washington Post. Retrieved 10 September 2015.
- ↑ Dominus, Susan (2017-10-18). "When the Revolution Came for Amy Cuddy". The New York Times (in English). ISSN 0362-4331. Retrieved 2017-10-19.
- ↑ Leichsenring, Falk; Abbass, Allan; Hilsenroth, Mark J.; Leweke, Frank; Luyten, Patrick; Keefe, Jack R.; Midgley, Nick; Rabung, Sven; Salzer, Simone; Steiner, Christiane (April 2017). "Biases in research: risk factors for non-replicability in psychotherapy and pharmacotherapy research". Psychological Medicine. 47 (6): 1000–1011. doi:10.1017/S003329171600324X. PMID 27955715.
- ↑ Hengartner, Michael P. (February 28, 2018). "Raising Awareness for the Replication Crisis in Clinical Psychology by Focusing on Inconsistencies in Psychotherapy Research: How Much Can We Rely on Published Findings from Efficacy Trials?". Frontiers in Psychology. Frontiers Media. 9: 256. doi:10.3389/fpsyg.2018.00256. PMC 5835722. PMID 29541051.
- ↑ Frank, Michael C.; Bergelson, Elika; Bergmann, Christina; Cristia, Alejandrina; Floccia, Caroline; Gervain, Judit; Hamlin, J. Kiley; Hannon, Erin E.; Kline, Melissa; Levelt, Claartje; Lew-Williams, Casey; Nazzi, Thierry; Panneton, Robin; Rabagliati, Hugh; Soderstrom, Melanie; Sullivan, Jessica; Waxman, Sandra; Yurovsky, Daniel (9 March 2017). "A Collaborative Approach to Infant Research: Promoting Reproducibility, Best Practices, and Theory‐Building" (PDF). Infancy. 22 (4): 421–435. doi:10.1111/infa.12182. hdl:10026.1/9942. Retrieved 19 December 2018.
- ↑ Tyson, Charlie (14 August 2014). "Failure to Replicate". Inside Higher Ed. Retrieved 19 December 2018.
- ↑ Makel, Matthew C.; Plucker, Jonathan A. (1 August 2014). "Facts Are More Important Than Novelty: Replication in the Education Sciences". Educational Researcher. 43 (6): 304–316. doi:10.3102/0013189X14545513. Retrieved 19 December 2018.
- ↑ Stanley, T. D.; Carter, Evan C.; Doucouliagos, Hristos (2018). "What meta-analyses reveal about the replicability of psychological research". Psychological Bulletin (in English). 144 (12): 1325–1346. doi:10.1037/bul0000169. ISSN 1939-1455. PMID 30321017.
- ↑ 19,0 19,1 19,2 John, Leslie K.; Loewenstein, George; Prelec, Drazen (2012-05-01). "Measuring the Prevalence of Questionable Research Practices With Incentives for Truth Telling" (PDF). Psychological Science. 23 (5): 524–532. doi:10.1177/0956797611430953. ISSN 0956-7976. PMID 22508865.
- ↑ "The Nine Circles of Scientific Hell". Perspectives on Psychological Science. 7 (6): 643–644. 2012-11-01. doi:10.1177/1745691612459519. ISSN 1745-6916. PMID 26168124.
- ↑ "Research misconduct - The grey area of Questionable Research Practices". www.vib.be. Retrieved 2015-11-13.
- ↑ Fiedler, Klaus; Schwarz, Norbert (2015-10-19). "Questionable Research Practices Revisited". Social Psychological and Personality Science. 7: 45–52. doi:10.1177/1948550615612150. ISSN 1948-5506.
- ↑ Simmons, Joseph; Nelson, Leif; Simonsohn, Uri (November 2011). "False-Positive Psychology: Undisclosed Flexibility in Data Collection and Analysis Allows Presenting Anything as Significant". Psychological Science. 22 (11): 1359–1366. doi:10.1177/0956797611417632. ISSN 0956-7976. PMID 22006061.
- ↑ Shea, Christopher (13 November 2011). "Fraud Scandal Fuels Debate Over Practices of Social Psychology". The Chronicle of Higher Education.
- ↑ Kahneman, Daniel. "A New Etiquette for Replication" – via Scribd.
- ↑ "Link to issue". Social Psychology. Hogrefe Publishing. 45 (3). 2014. Archived from the original on 30 May 2014.
- ↑ Inhaltsverzeichnis
- ↑ Open Science Collaboration (2015). "Estimating the reproducibility of Psychological Science" (PDF). Science. 349 (6251): aac4716. doi:10.1126/science.aac4716. hdl:10722/230596. PMID 26315443.
- ↑ Coyne, James (April 15, 2014). "Are meta analyses conducted by professional organizations more trustworthy?". Mind the Brain. Retrieved September 13, 2016.
- ↑ Connor, Steve (27 August 2015). "Study reveals that a lot of psychology research really is just 'psycho-babble'". The Independent. London.
- ↑ Meyer, Michelle N.; Chabris, Christopher (31 July 2014). "Why Psychologists' Food Fight Matters" – via Slate.
- ↑ "Psychology Is Starting To Deal With Its Replication Problem". 27 August 2015.
- ↑ "Science Isn't Broken". 19 August 2015.
- ↑ Etchells, Pete (28 May 2014). "Psychology's replication drive: it's not about you". The Guardian.
- ↑ Wagenmakers, Eric-Jan; Wetzels, Ruud; Borsboom, Denny; Maas, Han L. J. van der; Kievit, Rogier A. (2012-11-01). "An Agenda for Purely Confirmatory Research". Perspectives on Psychological Science. 7 (6): 632–638. doi:10.1177/1745691612463078. ISSN 1745-6916. PMID 26168122.
- ↑ Ioannidis, John P. A. (2012-11-01). "Why Science Is Not Necessarily Self-Correcting". Perspectives on Psychological Science. 7 (6): 645–654. doi:10.1177/1745691612464056. ISSN 1745-6916. PMID 26168125.
- ↑ Pashler, Harold; Harris, Christine R. (2012-11-01). "Is the Replicability Crisis Overblown? Three Arguments Examined". Perspectives on Psychological Science. 7 (6): 531–536. doi:10.1177/1745691612463401. ISSN 1745-6916. PMID 26168109.
- ↑ Bartlett, Tom (30 January 2013). "Power of Suggestion". The Chronicle of Higher Education.
- ↑ 39,0 39,1 Chambers, Chris (10 June 2014). "Physics envy: Do 'hard' sciences hold the solution to the replication crisis in psychology?". The Guardian.
- ↑ 40,0 40,1 Makel, Matthew C.; Plucker, Jonathan A.; Hegarty, Boyd (2012-11-01). "Replications in Psychology Research How Often Do They Really Occur?". Perspectives on Psychological Science. 7 (6): 537–542. doi:10.1177/1745691612460688. ISSN 1745-6916. PMID 26168110.
- ↑ Collaboration, Open Science (2015-08-28). "Estimating the reproducibility of psychological science" (PDF). Science. 349 (6251): aac4716. doi:10.1126/science.aac4716. hdl:10722/230596. ISSN 0036-8075. PMID 26315443.
- ↑ "The Science Behind Social Science Gets Shaken Up—Again". WIRED (in English). Retrieved 2018-08-28.
- ↑ Camerer, Colin F.; Dreber, Anna; et al. (27 August 2018). "Evaluating the replicability of social science experiments in Nature and Science between 2010 and 2015" (PDF). Nature Human Behaviour. 2 (9): 637–644. doi:10.1038/s41562-018-0399-z. PMID 31346273.
- ↑ Klein, R.A. (2018). "Many Labs 2: Investigating Variation in Replicability Across Samples and Settings". Advances in Methods and Practices in Psychological Science. 1 (4): 443–490. doi:10.1177/2515245918810225.
- ↑ Witkowski, Tomasz (2019). "Is the glass half empty or half full? Latest results in the replication crisis in Psychology". Skeptical Inquirer. 43 (2): 5–6.
- ↑ See also Earp and Trafimow, 2015
- ↑ Everett, Jim Albert Charlton; Earp, Brian D. (2015-01-01). "A tragedy of the (academic) commons: interpreting the replication crisis in psychology as a social dilemma for early-career researchers". Frontiers in Psychology. 6: 1152. doi:10.3389/fpsyg.2015.01152. PMC 4527093. PMID 26300832.
- ↑ "Resolving the replication crisis in social psychology? A new proposal". Society for Personality and Social Psychology. Retrieved 2015-11-18.
- ↑ Believe it or not: how much can we rely on published data on potential drug targets? by Florian Prinz, Thomas Schlange & Khusru Asadullah, in: Nature Reviews Drug Discovery volume10, page712 (2011)
- ↑ Ioannidis JA (13 July 2005). "Contradicted and initially stronger effects in highly cited clinical research". JAMA. 294 (2): 218–228. doi:10.1001/jama.294.2.218. PMID 16014596.
- ↑ Glick, J. Leslie (1 January 1992). "Scientific data audit—A key management tool". Accountability in Research. 2 (3): 153–168. doi:10.1080/08989629208573811.
- ↑ Begley, C. G.; Ellis, L. M. (2012). "Drug Development: Raise Standards for Preclinical Cancer Research". Nature. 483 (7391): 531–533. Bibcode:2012Natur.483..531B. doi:10.1038/483531a. PMID 22460880.
- ↑ Begley, C. G. (2013). "Reproducibility: Six red flags for suspect work". Nature. 497 (7450): 433–434. Bibcode:2013Natur.497..433B. doi:10.1038/497433a.
- ↑ Ioannidis, JPA (2016). "Why Most Clinical Research Is Not Useful". PLoS Med. 13 (6): e1002049. doi:10.1371/journal.pmed.1002049. PMC 4915619. PMID 27328301.
- ↑ Ioannidis, John P. A. (August 1, 2005). "Why Most Published Research Findings Are False". PLoS Medicine. 2 (8): e124. doi:10.1371/journal.pmed.0020124. ISSN 1549-1277. PMC 1182327. PMID 16060722.