Replikationskrise: Unterschied zwischen den Versionen

Aus FreeWiki
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Zeile 15: Zeile 15:
 
Laut einer Umfrage von 1.500 Wissenschaftlern im Jahr 2016 berichteten 70% von ihnen, dass sie es versäumt hatten, mindestens ein anderes Experiment eines Wissenschaftlers zu reproduzieren (50% hatten es versäumt, eines ihrer eigenen Experimente zu reproduzieren).<ref>{{cite web|title=Is There a Reproducibility Crisis in Science?|url=https://www.scientificamerican.com/video/is-there-a-reproducibility-crisis-in-science/|publisher=Nature Video, Scientific American|date=28 May 2016|accessdate=15 August 2019}}</ref> Im Jahr 2009 haben 2% der Wissenschaftler, die zur Fälschung von Studien zugelassen wurden, mindestens einmal und 14%, die zur persönlichen Kenntnisnahme von jemandem, der dies tat, zugelassen wurden. Fehlleitungen wurden von medizinischen Forschern häufiger gemeldet als andere.<ref>{{cite journal|title=How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data|first=Daniele|last=Fanelli|date=29 May 2009|journal=PLOS ONE|volume=4|issue=5|pages=e5738|doi=10.1371/journal.pone.0005738|pmid=19478950|pmc=2685008|bibcode=2009PLoSO...4.5738F}}</ref>
 
Laut einer Umfrage von 1.500 Wissenschaftlern im Jahr 2016 berichteten 70% von ihnen, dass sie es versäumt hatten, mindestens ein anderes Experiment eines Wissenschaftlers zu reproduzieren (50% hatten es versäumt, eines ihrer eigenen Experimente zu reproduzieren).<ref>{{cite web|title=Is There a Reproducibility Crisis in Science?|url=https://www.scientificamerican.com/video/is-there-a-reproducibility-crisis-in-science/|publisher=Nature Video, Scientific American|date=28 May 2016|accessdate=15 August 2019}}</ref> Im Jahr 2009 haben 2% der Wissenschaftler, die zur Fälschung von Studien zugelassen wurden, mindestens einmal und 14%, die zur persönlichen Kenntnisnahme von jemandem, der dies tat, zugelassen wurden. Fehlleitungen wurden von medizinischen Forschern häufiger gemeldet als andere.<ref>{{cite journal|title=How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data|first=Daniele|last=Fanelli|date=29 May 2009|journal=PLOS ONE|volume=4|issue=5|pages=e5738|doi=10.1371/journal.pone.0005738|pmid=19478950|pmc=2685008|bibcode=2009PLoSO...4.5738F}}</ref>
  
=== Psychologie ====
+
=== Psychologie ===
  
 
Mehrere Faktoren sind zusammengekommen und haben die Psychologie in den Mittelpunkt der Kontroverse gebracht.<ref>{{cite web|last1=Achenbach|first1=Joel|title=No, science's reproducibility problem is not limited to psychology|url=https://www.washingtonpost.com/news/speaking-of-science/wp/2015/08/28/no-sciences-reproducibility-problem-is-not-limited-to-psychology/|website=The Washington Post|accessdate=10 September 2015}}</ref> Ein Großteil des Fokus lag dabei auf dem Bereich der Sozialpsychologie,<ref>{{Cite news|url=https://www.nytimes.com/2017/10/18/magazine/when-the-revolution-came-for-amy-cuddy.html|title=When the Revolution Came for Amy Cuddy|last=Dominus|first=Susan|date=2017-10-18|work=The New York Times|access-date=2017-10-19|language=en-US|issn=0362-4331}}</ref> obwohl andere Bereiche der Psychologie wie die klinische Psychologie,<ref>{{cite journal|last1=Leichsenring|first1=Falk|last2=Abbass|first2=Allan|author-link2=Allan Abbass|last3=Hilsenroth|first3=Mark J.|last4=Leweke|first4=Frank|last5=Luyten|first5=Patrick|last6=Keefe|first6=Jack R.|last7=Midgley|first7=Nick|last8=Rabung|first8=Sven|last9=Salzer|first9=Simone|last10=Steiner|first10=Christiane|title=Biases in research: risk factors for non-replicability in psychotherapy and pharmacotherapy research|journal=[[Psychological Medicine]]|year=April 2017|volume=47|issue=6|pages=1000–1011|doi=10.1017/S003329171600324X|pmid=27955715|url=http://discovery.ucl.ac.uk/1532689/}}</ref><ref>{{cite journal|last=Hengartner|first=Michael P.|title=Raising Awareness for the Replication Crisis in Clinical Psychology by Focusing on Inconsistencies in Psychotherapy Research: How Much Can We Rely on Published Findings from Efficacy Trials?|journal=[[Frontiers in Psychology]]|volume=9|pages=256|publisher=[[Frontiers Media]]|doi=10.3389/fpsyg.2018.00256|pmid=29541051|pmc=5835722|date=February 28, 2018}}</ref>  Entwicklungspsychologie,<ref>{{cite journal|last1=Frank|first1=Michael C.|author-link1=Michael C. Frank|last2=Bergelson|first2=Elika|last3=Bergmann|first3=Christina|last4=Cristia|first4=Alejandrina|last5=Floccia|first5=Caroline|last6=Gervain|first6=Judit|last7=Hamlin|first7=J. Kiley|last8=Hannon|first8=Erin E.|last9=Kline|first9=Melissa|last10=Levelt|first10=Claartje|last11=Lew-Williams|first11=Casey|last12=Nazzi|first12=Thierry|last13=Panneton|first13=Robin|last14=Rabagliati|first14=Hugh|last15=Soderstrom|first15=Melanie|last16=Sullivan|first16=Jessica|last17=Waxman|first17=Sandra|author-link17=Sandra Waxman|last18=Yurovsky|first18=Daniel|title=A Collaborative Approach to Infant Research: Promoting Reproducibility, Best Practices, and Theory‐Building|journal=[[Infancy (journal)|Infancy]]|volume=22|issue=4|pages=421–435|date=9 March 2017|url=http://callab.uchicago.edu/papers/fetal-infancy-inpress.pdf|doi=10.1111/infa.12182|access-date=19 December 2018|hdl=10026.1/9942}}</ref> und Bildungsforschung ebenfalls einbezogen wurden.<ref>{{cite journal|last=Tyson|first=Charlie|title=Failure to Replicate|journal=[[Inside Higher Ed]]|date=14 August 2014|url=https://www.insidehighered.com/news/2014/08/14/almost-no-education-research-replicated-new-article-shows|access-date=19 December 2018}}</ref><ref>{{cite journal|last1=Makel|first1=Matthew C.|last2=Plucker|first2=Jonathan A.|author-link2=Jonathan A. Plucker|title=Facts Are More Important Than Novelty: Replication in the Education Sciences|journal=[[Educational Researcher]]|date=1 August 2014|volume=43|issue=6|pages=304–316|doi=10.3102/0013189X14545513|access-date=19 December 2018|url=https://journals.sagepub.com/stoken/rbtfl/w5mrNxPVD8zSg/full}}</ref> According to a 2018 survey of 200 meta-analyses, "psychological research is, on average, afflicted with low statistical power".<ref>{{Cite journal|last=Stanley|first=T. D.|last2=Carter|first2=Evan C.|last3=Doucouliagos|first3=Hristos|date=2018|title=What meta-analyses reveal about the replicability of psychological research.|journal=Psychological Bulletin|language=en|volume=144|issue=12|pages=1325–1346|doi=10.1037/bul0000169|pmid=30321017|issn=1939-1455}}</ref>
 
Mehrere Faktoren sind zusammengekommen und haben die Psychologie in den Mittelpunkt der Kontroverse gebracht.<ref>{{cite web|last1=Achenbach|first1=Joel|title=No, science's reproducibility problem is not limited to psychology|url=https://www.washingtonpost.com/news/speaking-of-science/wp/2015/08/28/no-sciences-reproducibility-problem-is-not-limited-to-psychology/|website=The Washington Post|accessdate=10 September 2015}}</ref> Ein Großteil des Fokus lag dabei auf dem Bereich der Sozialpsychologie,<ref>{{Cite news|url=https://www.nytimes.com/2017/10/18/magazine/when-the-revolution-came-for-amy-cuddy.html|title=When the Revolution Came for Amy Cuddy|last=Dominus|first=Susan|date=2017-10-18|work=The New York Times|access-date=2017-10-19|language=en-US|issn=0362-4331}}</ref> obwohl andere Bereiche der Psychologie wie die klinische Psychologie,<ref>{{cite journal|last1=Leichsenring|first1=Falk|last2=Abbass|first2=Allan|author-link2=Allan Abbass|last3=Hilsenroth|first3=Mark J.|last4=Leweke|first4=Frank|last5=Luyten|first5=Patrick|last6=Keefe|first6=Jack R.|last7=Midgley|first7=Nick|last8=Rabung|first8=Sven|last9=Salzer|first9=Simone|last10=Steiner|first10=Christiane|title=Biases in research: risk factors for non-replicability in psychotherapy and pharmacotherapy research|journal=[[Psychological Medicine]]|year=April 2017|volume=47|issue=6|pages=1000–1011|doi=10.1017/S003329171600324X|pmid=27955715|url=http://discovery.ucl.ac.uk/1532689/}}</ref><ref>{{cite journal|last=Hengartner|first=Michael P.|title=Raising Awareness for the Replication Crisis in Clinical Psychology by Focusing on Inconsistencies in Psychotherapy Research: How Much Can We Rely on Published Findings from Efficacy Trials?|journal=[[Frontiers in Psychology]]|volume=9|pages=256|publisher=[[Frontiers Media]]|doi=10.3389/fpsyg.2018.00256|pmid=29541051|pmc=5835722|date=February 28, 2018}}</ref>  Entwicklungspsychologie,<ref>{{cite journal|last1=Frank|first1=Michael C.|author-link1=Michael C. Frank|last2=Bergelson|first2=Elika|last3=Bergmann|first3=Christina|last4=Cristia|first4=Alejandrina|last5=Floccia|first5=Caroline|last6=Gervain|first6=Judit|last7=Hamlin|first7=J. Kiley|last8=Hannon|first8=Erin E.|last9=Kline|first9=Melissa|last10=Levelt|first10=Claartje|last11=Lew-Williams|first11=Casey|last12=Nazzi|first12=Thierry|last13=Panneton|first13=Robin|last14=Rabagliati|first14=Hugh|last15=Soderstrom|first15=Melanie|last16=Sullivan|first16=Jessica|last17=Waxman|first17=Sandra|author-link17=Sandra Waxman|last18=Yurovsky|first18=Daniel|title=A Collaborative Approach to Infant Research: Promoting Reproducibility, Best Practices, and Theory‐Building|journal=[[Infancy (journal)|Infancy]]|volume=22|issue=4|pages=421–435|date=9 March 2017|url=http://callab.uchicago.edu/papers/fetal-infancy-inpress.pdf|doi=10.1111/infa.12182|access-date=19 December 2018|hdl=10026.1/9942}}</ref> und Bildungsforschung ebenfalls einbezogen wurden.<ref>{{cite journal|last=Tyson|first=Charlie|title=Failure to Replicate|journal=[[Inside Higher Ed]]|date=14 August 2014|url=https://www.insidehighered.com/news/2014/08/14/almost-no-education-research-replicated-new-article-shows|access-date=19 December 2018}}</ref><ref>{{cite journal|last1=Makel|first1=Matthew C.|last2=Plucker|first2=Jonathan A.|author-link2=Jonathan A. Plucker|title=Facts Are More Important Than Novelty: Replication in the Education Sciences|journal=[[Educational Researcher]]|date=1 August 2014|volume=43|issue=6|pages=304–316|doi=10.3102/0013189X14545513|access-date=19 December 2018|url=https://journals.sagepub.com/stoken/rbtfl/w5mrNxPVD8zSg/full}}</ref> According to a 2018 survey of 200 meta-analyses, "psychological research is, on average, afflicted with low statistical power".<ref>{{Cite journal|last=Stanley|first=T. D.|last2=Carter|first2=Evan C.|last3=Doucouliagos|first3=Hristos|date=2018|title=What meta-analyses reveal about the replicability of psychological research.|journal=Psychological Bulletin|language=en|volume=144|issue=12|pages=1325–1346|doi=10.1037/bul0000169|pmid=30321017|issn=1939-1455}}</ref>
Zeile 25: Zeile 25:
 
Drittens haben sich mehrere Effekte in der Psychologie bereits vor der aktuellen Replikationskrise als schwer reproduzierbar erwiesen. So hat beispielsweise die Fachzeitschrift "''Judgment and Decision Making''" im Laufe der Jahre mehrere Studien veröffentlicht, die die Theorie des unbewussten Denkens nicht unterstützen konnten. Replikationen erscheinen besonders schwierig, wenn Forschungsstudien vorregistriert und von Forschergruppen durchgeführt werden, die für die fragliche Theorie nicht sehr stark engagiert sind.
 
Drittens haben sich mehrere Effekte in der Psychologie bereits vor der aktuellen Replikationskrise als schwer reproduzierbar erwiesen. So hat beispielsweise die Fachzeitschrift "''Judgment and Decision Making''" im Laufe der Jahre mehrere Studien veröffentlicht, die die Theorie des unbewussten Denkens nicht unterstützen konnten. Replikationen erscheinen besonders schwierig, wenn Forschungsstudien vorregistriert und von Forschergruppen durchgeführt werden, die für die fragliche Theorie nicht sehr stark engagiert sind.
  
Diese drei Elemente zusammen haben zu einer erneuten Aufmerksamkeit für die Replikation geführt, die vom Psychologen Daniel Kahneman unterstützt wird.<ref>{{cite web|title=A New Etiquette for Replication|url=https://www.scribd.com/doc/225285909/Kahneman-Commentary|first=Daniel|last=Kahneman|via=Scribd}}</ref> Die Untersuchung vieler Effekte hat gezeigt, dass einige Kernüberzeugungen schwer zu replizieren sind. Eine aktuelle Sonderausgabe der Zeitschrift ''Sozialpsychologie'', die sich auf Replikationsstudien konzentrierte, und eine Reihe von bisher vertretenen Überzeugungen erwiesen sich als schwer zu replizieren.<ref>{{cite journal|year=2014 |title= Link to issue<!-- NONE - reference to entire issue -->|url=http://www.psycontent.com/content/l67413865317/?p=3f8268e0307f4036906c158b1667c57a&pi=0 |journal=Social Psychology |publisher=Hogrefe Publishing |volume=45 |issue=3 |archive-url=https://archive.is/20140530230728/http://www.psycontent.com/content/l67413865317/?p=3f8268e0307f4036906c158b1667c57a&pi=0 |archive-date=30 May 2014}}</ref> Eine Sonderausgabe der Zeitschrift ''''Perspectives on Psychological Science'''' aus dem Jahr 2012 konzentrierte sich auch auf Themen, die vom ''publication bias'' bis zur Null-Aversion reichen und zu den Replikationskrisen in der Psychologie beitragen.<ref>[http://pps.sagepub.com/content/7/6.toc Inhaltsverzeichnis]</ref> Im Jahr 2015 wurde die erste offene empirische Studie zur Reproduzierbarkeit in der Psychologie veröffentlicht, das so genannte Reproduzierbarkeitsprojekt. Forscher aus der ganzen Welt arbeiteten zusammen, um 100 empirische Studien aus drei führenden psychologischen Zeitschriften zu replizieren. Bei weniger als der Hälfte der versuchten Replikationen war es gelungen, statistisch signifikante Ergebnisse in den erwarteten Richtungen zu erzielen, obwohl die meisten der versuchten Replikationen Trends in die erwarteten Richtungen hervorriefen.<ref>{{Cite journal | last1 = Open Science Collaboration | title = Estimating the reproducibility of Psychological Science | doi = 10.1126/science.aac4716 | journal = Science | volume = 349 | issue = 6251 | pages = aac4716 | year = 2015 | pmid=26315443| url = http://eprints.keele.ac.uk/877/1/Open%20Science%20%28Science%20Pre-Print%29.pdf | hdl = 10722/230596 }}</ref>
+
Diese drei Elemente zusammen haben zu einer erneuten Aufmerksamkeit für die Replikation geführt, die vom Psychologen Daniel Kahneman unterstützt wird.<ref>{{cite web|title=A New Etiquette for Replication|url=https://www.scribd.com/doc/225285909/Kahneman-Commentary|first=Daniel|last=Kahneman|via=Scribd}}</ref> Die Untersuchung vieler Effekte hat gezeigt, dass einige Kernüberzeugungen schwer zu replizieren sind. Eine aktuelle Sonderausgabe der Zeitschrift ''Sozialpsychologie'', die sich auf Replikationsstudien konzentrierte, und eine Reihe von bisher vertretenen Überzeugungen erwiesen sich als schwer zu replizieren.<ref>{{cite journal|year=2014 |title= Link to issue<!-- NONE - reference to entire issue -->|url=http://www.psycontent.com/content/l67413865317/?p=3f8268e0307f4036906c158b1667c57a&pi=0 |journal=Social Psychology |publisher=Hogrefe Publishing |volume=45 |issue=3 |archive-url=https://archive.is/20140530230728/http://www.psycontent.com/content/l67413865317/?p=3f8268e0307f4036906c158b1667c57a&pi=0 |archive-date=30 May 2014}}</ref> Eine Sonderausgabe der Zeitschrift ''Perspectives on Psychological Science'' aus dem Jahr 2012 konzentrierte sich auch auf Themen, die vom ''publication bias'' bis zur Null-Aversion reichen und zu den Replikationskrisen in der Psychologie beitragen.<ref>[http://pps.sagepub.com/content/7/6.toc Inhaltsverzeichnis]</ref> Im Jahr 2015 wurde die erste offene empirische Studie zur Reproduzierbarkeit in der Psychologie veröffentlicht, das so genannte Reproduzierbarkeitsprojekt. Forscher aus der ganzen Welt arbeiteten zusammen, um 100 empirische Studien aus drei führenden psychologischen Zeitschriften zu replizieren. Bei weniger als der Hälfte der versuchten Replikationen war es gelungen, statistisch signifikante Ergebnisse in den erwarteten Richtungen zu erzielen, obwohl die meisten der versuchten Replikationen Trends in die erwarteten Richtungen hervorriefen.<ref>{{Cite journal | last1 = Open Science Collaboration | title = Estimating the reproducibility of Psychological Science | doi = 10.1126/science.aac4716 | journal = Science | volume = 349 | issue = 6251 | pages = aac4716 | year = 2015 | pmid=26315443| url = http://eprints.keele.ac.uk/877/1/Open%20Science%20%28Science%20Pre-Print%29.pdf | hdl = 10722/230596 }}</ref>
  
 
Viele Forschungsstudien und Metaanalysen werden durch schlechte Qualität und Interessenkonflikte beeinträchtigt, an denen sowohl Autoren als auch professionelle Interessenvertretungen beteiligt sind, was zu vielen falsch Positiven in Bezug auf die Wirksamkeit bestimmter Arten von Psychotherapie führt.<ref>{{cite web | url=http://blogs.plos.org/mindthebrain/2014/04/15/meta-analyses-conducted-professional-organizations-trustworthy/ | title=Are meta analyses conducted by professional organizations more trustworthy? | work=Mind the Brain | date=April 15, 2014 | accessdate=September 13, 2016 | first=James | last=Coyne}}</ref>
 
Viele Forschungsstudien und Metaanalysen werden durch schlechte Qualität und Interessenkonflikte beeinträchtigt, an denen sowohl Autoren als auch professionelle Interessenvertretungen beteiligt sind, was zu vielen falsch Positiven in Bezug auf die Wirksamkeit bestimmter Arten von Psychotherapie führt.<ref>{{cite web | url=http://blogs.plos.org/mindthebrain/2014/04/15/meta-analyses-conducted-professional-organizations-trustworthy/ | title=Are meta analyses conducted by professional organizations more trustworthy? | work=Mind the Brain | date=April 15, 2014 | accessdate=September 13, 2016 | first=James | last=Coyne}}</ref>
Zeile 32: Zeile 32:
  
 
Der Nobelpreisträger und emeritierte Professor für Psychologie Daniel Kahneman argumentierte, dass die Originalautoren an der Replikation beteiligt werden sollten, da die veröffentlichten Methoden oft zu vage sind.<ref name="Chambers">{{cite news|url=https://www.theguardian.com/science/head-quarters/2014/jun/10/physics-envy-do-hard-sciences-hold-the-solution-to-the-replication-crisis-in-psychology|title=Physics envy: Do 'hard' sciences hold the solution to the replication crisis in psychology?|first=Chris|last=Chambers|date=10 June 2014|newspaper=The Guardian}}</ref> Andere wie Dr. Andrew Wilson sind anderer Meinung und argumentieren, dass die Methoden im Detail beschrieben werden sollten.<ref name="Chambers" /> Eine Untersuchung der Replikationsraten in der Psychologie im Jahr 2012 ergab höhere Erfolgsraten in Replikationsstudien, wenn es zu Überschneidungen mit den Originalautoren einer Studie kam<ref name=":1">{{Cite journal|title = Replications in Psychology Research How Often Do They Really Occur?|journal = Perspectives on Psychological Science|date = 2012-11-01|issn = 1745-6916|pmid = 26168110|pages = 537–542|volume = 7|issue = 6|doi = 10.1177/1745691612460688|first = Matthew C.|last = Makel|first2 = Jonathan A.|last2 = Plucker|first3 = Boyd|last3 = Hegarty}}</ref> (91,7% erfolgreiche Replikationsraten in Studien mit Autorenüberschneidungen im Vergleich zu 64,6% erfolgreichen Replikationsraten ohne Autorenüberschneidungen).
 
Der Nobelpreisträger und emeritierte Professor für Psychologie Daniel Kahneman argumentierte, dass die Originalautoren an der Replikation beteiligt werden sollten, da die veröffentlichten Methoden oft zu vage sind.<ref name="Chambers">{{cite news|url=https://www.theguardian.com/science/head-quarters/2014/jun/10/physics-envy-do-hard-sciences-hold-the-solution-to-the-replication-crisis-in-psychology|title=Physics envy: Do 'hard' sciences hold the solution to the replication crisis in psychology?|first=Chris|last=Chambers|date=10 June 2014|newspaper=The Guardian}}</ref> Andere wie Dr. Andrew Wilson sind anderer Meinung und argumentieren, dass die Methoden im Detail beschrieben werden sollten.<ref name="Chambers" /> Eine Untersuchung der Replikationsraten in der Psychologie im Jahr 2012 ergab höhere Erfolgsraten in Replikationsstudien, wenn es zu Überschneidungen mit den Originalautoren einer Studie kam<ref name=":1">{{Cite journal|title = Replications in Psychology Research How Often Do They Really Occur?|journal = Perspectives on Psychological Science|date = 2012-11-01|issn = 1745-6916|pmid = 26168110|pages = 537–542|volume = 7|issue = 6|doi = 10.1177/1745691612460688|first = Matthew C.|last = Makel|first2 = Jonathan A.|last2 = Plucker|first3 = Boyd|last3 = Hegarty}}</ref> (91,7% erfolgreiche Replikationsraten in Studien mit Autorenüberschneidungen im Vergleich zu 64,6% erfolgreichen Replikationsraten ohne Autorenüberschneidungen).
 +
 +
==== Replikationsraten in der Psychologie====
 +
 +
Ein Bericht der[https://en.wikipedia.org/wiki/Center_for_Open_Science Open Science Collaboration] vom August 2015, der von [https://en.wikipedia.org/wiki/Brian_Nosek Brian Nosek] koordiniert wurde, schätzte die Reproduzierbarkeit von 100 psychologischen Studien aus drei hochrangigen psychologischen Zeitschriften.<ref>{{Cite journal|title = Estimating the reproducibility of psychological science|journal = Science|date = 2015-08-28|issn = 0036-8075|pmid = 26315443|pages = aac4716|volume = 349|issue = 6251|doi = 10.1126/science.aac4716|first = Open Science|last = Collaboration|url = http://eprints.keele.ac.uk/877/1/Open%20Science%20%28Science%20Pre-Print%29.pdf|hdl = 10722/230596}}</ref> Insgesamt lieferten 36% der Replikationen signifikante Ergebnisse (''p'' Wert unter 0,05) im Vergleich zu 97% der ursprünglichen Studien, die signifikante Effekte hatten. Die mittlere Effektgröße in den Replikationen war etwa halb so groß wie die in den Originalstudien berichteten Effekte.
 +
 +
Im gleichen Beitrag wurden die Reproduzierbarkeitsraten und Effektgrößen nach Zeitschriften untersucht (''Journal of Personality and Social Psychology''[JPSP], ''Journal of Experimental Psychology: Learning, Memory, and Cognition'' [JEP:LMC], ''Psychological Science'' [PSCI]) und nach Disziplinen (Sozialpsychologie, kognitive Psychologie). Die Replikationsraten der Studien lagen bei 23% für JPSP, 38% für JEP:LMC und 38% für PSCI. Studien im Bereich der kognitiven Psychologie hatten eine höhere Replikationsrate (50%) als Studien im Bereich der Sozialpsychologie (25%).
 +
 +
Eine Analyse der Publikationsgeschichte in den Top-100-Psychologiezeitschriften zwischen 1900 und 2012 ergab, dass etwa 1,6% aller psychologischen Publikationen Replikationsversuche waren.<ref name=":1" /> Artikel wurden als Replikationsversuch betrachtet, wenn der Begriff "Replikation" im Text erschien. Eine Teilmenge dieser Studien (500 Studien) wurde nach dem Zufallsprinzip für weitere Untersuchungen ausgewählt und ergab eine geringere Replikationsrate von 1,07% (342 der 500 Studien [68,4%] waren tatsächlich Replikationen). In der Teilmenge von 500 Studien zeigte die Analyse, dass 78,9% der veröffentlichten Replikationsversuche erfolgreich waren. Die Rate der erfolgreichen Replikation war signifikant höher, wenn mindestens ein Autor der Originalstudie Teil des Replikationsversuchs war (91,7% gegenüber 64,6%).
 +
 +
Eine 2018 in der Zeitschrift ''Nature Human Behaviour'' veröffentlichte Studie versuchte, 21 sozial- und verhaltenswissenschaftliche Arbeiten aus ''Nature'' und ''Science'' zu replizieren, wobei festgestellt wurde, dass nur 13 erfolgreich repliziert werden konnten.<ref>{{Cite news|url=https://www.wired.com/story/social-science-reproducibility|title=The Science Behind Social Science Gets Shaken Up—Again|work=WIRED|access-date=2018-08-28|language=en-US}}</ref><ref>{{cite journal |last1=Camerer |first1=Colin F. |authorlink1=Colin Camerer|last2=Dreber |first2=Anna |last3=Holzmeister |first3=Felix |last4=Ho |first4=Teck-Hua |last5=Huber |first5=Jürgen |last6=Johannesson |first6=Magnus |last7=Kirchler |first7=Michael |last8=Nave |first8=Gideon |last9=Nosek |first9=Brian A. |last10=Pfeiffer |first10=Thomas |last11=Altmejd |first11=Adam |last12=Buttrick |first12=Nick |last13=Chan |first13=Taizan |last14=Chen |first14=Yiling |last15=Forsell |first15=Eskil |last16=Gampa |first16=Anup |last17=Heikensten |first17=Emma |last18=Hummer |first18=Lily |last19=Imai |first19=Taisuke |last20=Isaksson |first20=Siri |last21=Manfredi |first21=Dylan |last22=Rose |first22=Julia |last23=Wagenmakers |first23=Eric-Jan |last24=Wu |first24=Hang |display-authors=2 |title=Evaluating the replicability of social science experiments in Nature and Science between 2010 and 2015 |journal=Nature Human Behaviour |date=27 August 2018 |volume=2 |issue=9 |pages=637–644 |doi=10.1038/s41562-018-0399-z|pmid=31346273 |url=https://authors.library.caltech.edu/91063/2/41562_2018_399_MOESM1_ESM.pdf }}</ref>  Ebenso in einer Studie, die unter der Schirmherrschaft des [https://en.wikipedia.org/wiki/Center_for_Open_Science Center for Open Science], ein Team von 186 Forschern aus 60 verschiedenen Labors (die 36 verschiedene Nationalitäten aus 6 verschiedenen Kontinenten repräsentieren), Replikationen von 28 klassischen und zeitgenössischen Erkenntnissen in der Psychologie durchführte.<ref name="Many Labs 2">{{cite journal |last1=Klein |first1=R.A. |title=Many Labs 2: Investigating Variation in Replicability Across Samples and Settings |journal=Advances in Methods and Practices in Psychological Science |date=2018 |volume=1 |issue=4 |pages=443–490 |doi=10.1177/2515245918810225 }}</ref> Der Fokus der Studie lag nicht nur darauf, ob die Ergebnisse aus den Originalarbeiten repliziert wurden oder nicht, sondern auch darauf, inwieweit die Ergebnisse in Abhängigkeit von Variationen in Proben und Kontexten variierten. Insgesamt konnten 14 der 28 Befunde trotz erheblicher Stichprobengröße nicht repliziert werden. Wenn ein Befund jedoch repliziert wurde, wurde er in den meisten Stichproben repliziert, während er, wenn er nicht repliziert wurde, mit geringer Variation zwischen Stichproben und Kontexten nicht repliziert werden konnte. Dieser Nachweis steht im Widerspruch zu einer populären Erklärung, dass Versäumnisse bei der Replikation in der Psychologie wahrscheinlich auf Änderungen in der Stichprobe zwischen Original- und Replikationsstudie zurückzuführen sind.<ref name="Witkowski">{{cite journal |last1=Witkowski |first1=Tomasz |title=Is the glass half empty or half full? Latest results in the replication crisis in Psychology |journal=Skeptical Inquirer |date=2019 |volume=43 |issue=2 |pages=5–6}}</ref>
 +
 +
==== Ein soziales Dilemma der ganzen Disziplin====
 +
 +
Im Versuch, die soziale Struktur herauszuarbeiten, die die Replikation in der Psychologie verhindert, zählten Brian D. Earp und Jim A. C. Everett fünf Punkte auf, warum Replikationsversuche ungewöhnlich sind:<ref>See also [http://journal.frontiersin.org/article/10.3389/fpsyg.2015.00621/abstract Earp and Trafimow], 2015</ref><ref name="Everett 1152">{{Cite journal|title = A tragedy of the (academic) commons: interpreting the replication crisis in psychology as a social dilemma for early-career researchers|journal = Frontiers in Psychology|date = 2015-01-01|pmc = 4527093|pmid = 26300832|pages = 1152|doi = 10.3389/fpsyg.2015.01152|first = Jim Albert Charlton|last = Everett|first2 = Brian D.|last2 = Earp|volume=6}}</ref>
 +
 +
"#Unabhängige, direkte Replikationen der Ergebnisse anderer können für den replizierenden Forscher zeitaufwendig sein.
 +
#"[Replikationen] werden wahrscheinlich Energie und Ressourcen direkt von anderen Projekten abziehen, die das eigene ursprüngliche Denken widerspiegeln.
 +
#"[Replikationen] sind im Allgemeinen schwieriger zu veröffentlichen (größtenteils, weil sie als unoriginell angesehen werden).
 +
#"Selbst wenn [Replikationen] veröffentlicht werden, werden sie wahrscheinlich als "Maurerarbeiten" angesehen, und nicht als wichtige Beiträge zum Thema.
 +
#"[Replikationen] bringen ihren Autoren weniger Anerkennung und Belohnung und sogar weniger grundlegende Karrieresicherheit"<ref name=":3">{{Cite web|title = Resolving the replication crisis in social psychology? A new proposal|url = http://www.spsp.org/blog/resolving-replication-crisis-social-psychology|publisher=Society for Personality and Social Psychology|accessdate = 2015-11-18}}</ref>
 +
 +
Aus diesen Gründen halten die Autoren dafür, dass sich die Psychologie als Disziplin in einem sozialen Dilemma befindet, in dem die Interessen der Disziplin im Widerspruch zu den Interessen des einzelnen Forschers stehen.
 +
 +
==== Medizin ====
 +
 +
Medizinische Forscher gehörten zu den ersten, die Alarm schlugen, als es um die mangelnde Reproduzierbarkeit von vorklinischen Studien zu Arzneimitteln ging, die für den industriellen Einsatz bestimmt waren.<ref>[https://www.nature.com/articles/nrd3439-c1 Believe it or not: how much can we rely on published data on potential drug targets?] by Florian Prinz, Thomas Schlange & Khusru Asadullah, in: Nature Reviews Drug Discovery volume10, page712 (2011)</ref> Dieser Mangel an Reproduzierbarkeit und damit an Zuverlässigkeit in der Forschung begann für Pharmaunternehmen zu einem wachsenden Problem zu werden, da ihre Entscheidungen, in welche Arzneimittelziele sie Geld für teure klinische Forschung investieren wollen, hauptsächlich von solchen Studien abhängen.
 +
 +
Von 49 medizinischen Studien von 1990-2003, mit mehr als 1000 Zitierungen, behaupteten 45, dass die studierte Therapie wirksam sei. Von diesen Studien wurden 16% durch Folgestudien widerlegt, 16% hatten stärkere Effekte gefunden als Folgestudien, 44% wurden repliziert, und 24% blieben weitgehend unangefochten.<ref>{{cite journal|title=Contradicted and initially stronger effects in highly cited clinical research|last=Ioannidis JA|date=13 July 2005|journal=JAMA|volume=294|issue=2|pages=218–228|doi=10.1001/jama.294.2.218|pmid=16014596}}</ref> Die US Food and Drug Administration fand in den Jahren 1977-1990 Fehler in 10-20% der medizinischen Studien.<ref>{{cite journal|title=Scientific data audit—A key management tool|first=J. Leslie|last=Glick|date=1 January 1992|volume=2|issue=3|pages=153–168|doi=10.1080/08989629208573811|journal=Accountability in Research}}</ref> In einer 2012 veröffentlichten Arbeit stellten Glenn Begley, ein Biotech-Berater, der bei Amgen arbeitet, und Lee Ellis von der University of Texas fest, dass nur 11% der vorklinischen Krebsstudien repliziert werden könnten.<ref name="Begley-Lee2012">{{Cite journal|last1=Begley |first1=C. G. |last2=Ellis |first2=L. M. |year=2012 |title=Drug Development: Raise Standards for Preclinical Cancer Research |journal=Nature |volume=483 |issue=7391 |pages=531–533|doi=10.1038/483531a |pmid=22460880 |bibcode=2012Natur.483..531B }}</ref><ref name="Begley2013">{{Cite journal|last=Begley |first=C. G. |year=2013 |title=Reproducibility: Six red flags for suspect work |journal=Nature |volume=497 |issue=7450 |pages=433–434|doi=10.1038/497433a |bibcode=2013Natur.497..433B }}</ref>
 +
 +
Ein Artikel von[https://en.wikipedia.org/wiki/John_Ioannidis John Ioannidis], Professor für Medizin und Gesundheitsforschung und -politik an der Stanford University School of Medicine und Professor für Statistik an der Stanford University School of Humanities and Sciences, ging 2016 darauf ein , „warum die meiste klinische Forschung nichts nützt“ ("Why Most Clinical Research Is Not Useful")".<ref name="Ioannidis2016">{{cite journal | last1 = Ioannidis | first1 = JPA | year = 2016 | title = Why Most Clinical Research Is Not Useful | journal = PLoS Med | volume = 13 | issue = 6| page = e1002049 | doi = 10.1371/journal.pmed.1002049 | pmid = 27328301 | pmc = 4915619 }}</ref> Im Artikel legte Ioannidis einige der Probleme dar und forderte eine Reform mit bestimmten Charakteristika, damit die medizinische Forschung wieder nützlich sei; ein Beispiel dafür war die Notwendigkeit, dass die Medizin "patientenzentriert" sein müsse (z.B. in Form des Patient-Centered Outcomes Research Institute) anstelle der derzeitigen Praxis, sich hauptsächlich um "die Bedürfnisse von Ärzten, Forschern oder Sponsoren" zu kümmern. Ioannidis ist seit der 2005 erschienenen Arbeit "Why Most Published Research Findings Are False"<ref>{{cite journal|title=Why Most Published Research Findings Are False|journal=[[PLoS Medicine]]|date=August 1, 2005|issn=1549-1277|pmc=1182327|pmid=16060722|volume=2|issue=8|doi=10.1371/journal.pmed.0020124|first=John P. A.|last=Ioannidis|pages=e124}}</ref> bekannt für seinen Forschungsschwerpunkt auf der Wissenschaft selbst.
  
  

Version vom 6. September 2019, 22:35 Uhr

Unterstützen Sie FreeWiki

Der folgende Textabschnitt basiert auf dem Artikel „Replication Crisis“ aus Wikipedia, gelesen am 31.8.2019, und steht unter der Lizenz Creative Commons CC-BY-SA 3.0 Unported (Kurzfassung). In der Wikipedia ist auf der genannten Seite eine Liste der Autoren verfügbar. Änderungen möglich.

Diese Seite ist noch als ein Fragment zu betrachten, d. h. es gibt noch keinen strukturierten Artikel zu dem Thema, sondern nur eine Sammlung von Material oder einzelne Textvorschläge.
Die Tatsache, dass hier ein Artikel-Fragment begonnen wurde, bedeutet, dass der entsprechenden Wikipedia-Artikel für nicht ausreichend, unzuverlässig und / oder manipuliert gehalten wird. Hier im FreeWiki wird versucht, eine sachlich korrekte Seite zu erstellen.

Dieser Artikel ist eng mit dem Artikel über den Decline Effect verbunden, welcher Teil dieser Krise ist. Für weitere Erklärungen und Material siehe auch dort.

Die Replikationskrise (oder Wiederholbarkeitskrise oder Reproduzierbarkeitskrise) ist eine andauernde (2019) methodische Krise, in der festgestellt wurde, dass viele wissenschaftliche Studien schwer oder unmöglich zu reproduzieren oder zu wiederholen sind. Die Replikationskrise betrifft die Sozial- und Biowissenschaften am stärksten, [1][2], während die exakten Wissenschaften immer noch zögern, sich dem Problem überhaupt zu stellen und in ihrer Forschung meistens nicht einmal Verblindung verwenden.[3] Die Krise hat langjährige Wurzeln. Der Begriff selbst wurde Anfang 2010 geprägt[4] als Teil eines wachsenden Problembewusstseins. Die Replikationskrise bildet in der Wissenschaftstheorie einen wichtigen Forschungsgegenstand. [5]

Da die Reproduzierbarkeit von Experimenten ein wesentlicher Bestandteil der wissenschaftlichen Methode ist,[6] hat die Unmöglichkeit, die Studien anderer zu replizieren, potenziell schwerwiegende Folgen für viele Wissenschaftsbereiche, in denen bedeutende Theorien auf nicht reproduzierbaren experimentellen Arbeiten basieren. Die Replikationskrise wurde insbesondere im Bereich der Psychologie (insbesondere der Sozialpsychologie) und in der Medizin diskutiert, wo eine Reihe von Bemühungen unternommen wurden, klassische Ergebnisse neu zu untersuchen und zu versuchen, sowohl die Zuverlässigkeit der Ergebnisse als auch, wenn sie sich als unzuverlässig erweisen, die Gründe für das Scheitern der Replikation zu bestimmen.[7][8]

Umfang der Krise

Insgesamt

Laut einer Umfrage von 1.500 Wissenschaftlern im Jahr 2016 berichteten 70% von ihnen, dass sie es versäumt hatten, mindestens ein anderes Experiment eines Wissenschaftlers zu reproduzieren (50% hatten es versäumt, eines ihrer eigenen Experimente zu reproduzieren).[9] Im Jahr 2009 haben 2% der Wissenschaftler, die zur Fälschung von Studien zugelassen wurden, mindestens einmal und 14%, die zur persönlichen Kenntnisnahme von jemandem, der dies tat, zugelassen wurden. Fehlleitungen wurden von medizinischen Forschern häufiger gemeldet als andere.[10]

Psychologie

Mehrere Faktoren sind zusammengekommen und haben die Psychologie in den Mittelpunkt der Kontroverse gebracht.[11] Ein Großteil des Fokus lag dabei auf dem Bereich der Sozialpsychologie,[12] obwohl andere Bereiche der Psychologie wie die klinische Psychologie,[13][14] Entwicklungspsychologie,[15] und Bildungsforschung ebenfalls einbezogen wurden.[16][17] According to a 2018 survey of 200 meta-analyses, "psychological research is, on average, afflicted with low statistical power".[18]

Erstens wurden fragwürdige Forschungspraktiken („questionable research practices“ = QRPs) als üblich im Bereich.[19] Solche Praktiken, obwohl sie nicht absichtlich betrügerisch sind, beinhalten die Nutzung der Grauzone akzeptabler wissenschaftlicher Praktiken oder die Nutzung der Flexibilität bei der Datenerfassung, -analyse und -berichterstattung, oft in dem Bestreben, ein gewünschtes Ergebnis zu erzielen. Beispiele für QRPs sind selektive Berichterstattung oder teilweise Veröffentlichung von Daten (nur einige der Studienbedingungen oder gesammelte abhängige Messungen in einer Publikation), optionales Stoppen (Wahl, wann die Datenerhebung gestoppt werden soll, oft basierend auf der statistischen Signifikanz von Tests), p-Wertrundung (Aufrunden der p-Werte auf 0.05, um statistische Signifikanz nahezulegen), den Schubladeneffekt (Nichtveröffentlichung von Daten), das Post-Hoc-Storytelling (Framing explorativer Analysen als Bestätigungsanalysen) und die Manipulation von Ausreißern (entweder das Entfernen von Ausreißern oder das Belassen von Ausreißern in einem Datensatz, um einen statistischen Test signifikant wirken zu lassen).[19][20][21][22] Eine Umfrage unter über 2.000 Psychologen ergab, dass eine Mehrheit der Befragten die Verwendung mindestens eines QRP zugelassen hat.[19] Falsch positive Schlussfolgerungen, die sich oft aus dem Druck zur Veröffentlichung oder des eigenen „confirmation bias“ des Autors ergeben, sind eine inhärente Gefahr für das Feld und erfordern ein gewisses Maß an Skepsis seitens der Leser.[23]

Zweitens haben sich insbesondere die Psychologie und die Sozialpsychologie im Mittelpunkt mehrerer Skandale wiedergefunden. bei denen es um echten Forschungsbetrug ging, vor allem die eingestandene Erfindung von Daten durch Diederik Stapel[24] sowie Vorwürfe gegen andere. Die meisten Wissenschaftler erkennen jedoch an, dass Betrug vielleicht der geringere Beitrag zu Replikationskrisen ist.

Drittens haben sich mehrere Effekte in der Psychologie bereits vor der aktuellen Replikationskrise als schwer reproduzierbar erwiesen. So hat beispielsweise die Fachzeitschrift "Judgment and Decision Making" im Laufe der Jahre mehrere Studien veröffentlicht, die die Theorie des unbewussten Denkens nicht unterstützen konnten. Replikationen erscheinen besonders schwierig, wenn Forschungsstudien vorregistriert und von Forschergruppen durchgeführt werden, die für die fragliche Theorie nicht sehr stark engagiert sind.

Diese drei Elemente zusammen haben zu einer erneuten Aufmerksamkeit für die Replikation geführt, die vom Psychologen Daniel Kahneman unterstützt wird.[25] Die Untersuchung vieler Effekte hat gezeigt, dass einige Kernüberzeugungen schwer zu replizieren sind. Eine aktuelle Sonderausgabe der Zeitschrift Sozialpsychologie, die sich auf Replikationsstudien konzentrierte, und eine Reihe von bisher vertretenen Überzeugungen erwiesen sich als schwer zu replizieren.[26] Eine Sonderausgabe der Zeitschrift Perspectives on Psychological Science aus dem Jahr 2012 konzentrierte sich auch auf Themen, die vom publication bias bis zur Null-Aversion reichen und zu den Replikationskrisen in der Psychologie beitragen.[27] Im Jahr 2015 wurde die erste offene empirische Studie zur Reproduzierbarkeit in der Psychologie veröffentlicht, das so genannte Reproduzierbarkeitsprojekt. Forscher aus der ganzen Welt arbeiteten zusammen, um 100 empirische Studien aus drei führenden psychologischen Zeitschriften zu replizieren. Bei weniger als der Hälfte der versuchten Replikationen war es gelungen, statistisch signifikante Ergebnisse in den erwarteten Richtungen zu erzielen, obwohl die meisten der versuchten Replikationen Trends in die erwarteten Richtungen hervorriefen.[28]

Viele Forschungsstudien und Metaanalysen werden durch schlechte Qualität und Interessenkonflikte beeinträchtigt, an denen sowohl Autoren als auch professionelle Interessenvertretungen beteiligt sind, was zu vielen falsch Positiven in Bezug auf die Wirksamkeit bestimmter Arten von Psychotherapie führt.[29]

Obwohl die britische Zeitung The Independent schrieb, dass die Ergebnisse des Reproduzierbarkeitsprojektes zeigen, dass ein Großteil der veröffentlichten Forschung nur "Psycho-Gequatsche" ist,[30] bedeutet die Replikationskrise nicht unbedingt, dass Psychologie unwissenschaftlich ist.[31][32][33] Vielmehr ist dieser Prozess ein gesunder, wenn auch manchmal bitterer Teil des wissenschaftlichen Prozesses, in dem alte Ideen oder solche, die einer sorgfältigen Prüfung nicht standhalten können, beschnitten werden,[34][35] auch wenn dieser Stutzungsprozess nicht immer effektiv ist.[36][37] Die Konsequenz ist, dass einige Bereiche der Psychologie, die einst als solide angesehen wurden, wie z.B. Social Priming, aufgrund gescheiterter Replikationen zunehmend unter die Lupe genommen werden.[38]

Der Nobelpreisträger und emeritierte Professor für Psychologie Daniel Kahneman argumentierte, dass die Originalautoren an der Replikation beteiligt werden sollten, da die veröffentlichten Methoden oft zu vage sind.[39] Andere wie Dr. Andrew Wilson sind anderer Meinung und argumentieren, dass die Methoden im Detail beschrieben werden sollten.[39] Eine Untersuchung der Replikationsraten in der Psychologie im Jahr 2012 ergab höhere Erfolgsraten in Replikationsstudien, wenn es zu Überschneidungen mit den Originalautoren einer Studie kam[40] (91,7% erfolgreiche Replikationsraten in Studien mit Autorenüberschneidungen im Vergleich zu 64,6% erfolgreichen Replikationsraten ohne Autorenüberschneidungen).

Replikationsraten in der Psychologie

Ein Bericht derOpen Science Collaboration vom August 2015, der von Brian Nosek koordiniert wurde, schätzte die Reproduzierbarkeit von 100 psychologischen Studien aus drei hochrangigen psychologischen Zeitschriften.[41] Insgesamt lieferten 36% der Replikationen signifikante Ergebnisse (p Wert unter 0,05) im Vergleich zu 97% der ursprünglichen Studien, die signifikante Effekte hatten. Die mittlere Effektgröße in den Replikationen war etwa halb so groß wie die in den Originalstudien berichteten Effekte.

Im gleichen Beitrag wurden die Reproduzierbarkeitsraten und Effektgrößen nach Zeitschriften untersucht (Journal of Personality and Social Psychology[JPSP], Journal of Experimental Psychology: Learning, Memory, and Cognition [JEP:LMC], Psychological Science [PSCI]) und nach Disziplinen (Sozialpsychologie, kognitive Psychologie). Die Replikationsraten der Studien lagen bei 23% für JPSP, 38% für JEP:LMC und 38% für PSCI. Studien im Bereich der kognitiven Psychologie hatten eine höhere Replikationsrate (50%) als Studien im Bereich der Sozialpsychologie (25%).

Eine Analyse der Publikationsgeschichte in den Top-100-Psychologiezeitschriften zwischen 1900 und 2012 ergab, dass etwa 1,6% aller psychologischen Publikationen Replikationsversuche waren.[40] Artikel wurden als Replikationsversuch betrachtet, wenn der Begriff "Replikation" im Text erschien. Eine Teilmenge dieser Studien (500 Studien) wurde nach dem Zufallsprinzip für weitere Untersuchungen ausgewählt und ergab eine geringere Replikationsrate von 1,07% (342 der 500 Studien [68,4%] waren tatsächlich Replikationen). In der Teilmenge von 500 Studien zeigte die Analyse, dass 78,9% der veröffentlichten Replikationsversuche erfolgreich waren. Die Rate der erfolgreichen Replikation war signifikant höher, wenn mindestens ein Autor der Originalstudie Teil des Replikationsversuchs war (91,7% gegenüber 64,6%).

Eine 2018 in der Zeitschrift Nature Human Behaviour veröffentlichte Studie versuchte, 21 sozial- und verhaltenswissenschaftliche Arbeiten aus Nature und Science zu replizieren, wobei festgestellt wurde, dass nur 13 erfolgreich repliziert werden konnten.[42][43] Ebenso in einer Studie, die unter der Schirmherrschaft des Center for Open Science, ein Team von 186 Forschern aus 60 verschiedenen Labors (die 36 verschiedene Nationalitäten aus 6 verschiedenen Kontinenten repräsentieren), Replikationen von 28 klassischen und zeitgenössischen Erkenntnissen in der Psychologie durchführte.[44] Der Fokus der Studie lag nicht nur darauf, ob die Ergebnisse aus den Originalarbeiten repliziert wurden oder nicht, sondern auch darauf, inwieweit die Ergebnisse in Abhängigkeit von Variationen in Proben und Kontexten variierten. Insgesamt konnten 14 der 28 Befunde trotz erheblicher Stichprobengröße nicht repliziert werden. Wenn ein Befund jedoch repliziert wurde, wurde er in den meisten Stichproben repliziert, während er, wenn er nicht repliziert wurde, mit geringer Variation zwischen Stichproben und Kontexten nicht repliziert werden konnte. Dieser Nachweis steht im Widerspruch zu einer populären Erklärung, dass Versäumnisse bei der Replikation in der Psychologie wahrscheinlich auf Änderungen in der Stichprobe zwischen Original- und Replikationsstudie zurückzuführen sind.[45]

Ein soziales Dilemma der ganzen Disziplin

Im Versuch, die soziale Struktur herauszuarbeiten, die die Replikation in der Psychologie verhindert, zählten Brian D. Earp und Jim A. C. Everett fünf Punkte auf, warum Replikationsversuche ungewöhnlich sind:[46][47]

"#Unabhängige, direkte Replikationen der Ergebnisse anderer können für den replizierenden Forscher zeitaufwendig sein.

  1. "[Replikationen] werden wahrscheinlich Energie und Ressourcen direkt von anderen Projekten abziehen, die das eigene ursprüngliche Denken widerspiegeln.
  2. "[Replikationen] sind im Allgemeinen schwieriger zu veröffentlichen (größtenteils, weil sie als unoriginell angesehen werden).
  3. "Selbst wenn [Replikationen] veröffentlicht werden, werden sie wahrscheinlich als "Maurerarbeiten" angesehen, und nicht als wichtige Beiträge zum Thema.
  4. "[Replikationen] bringen ihren Autoren weniger Anerkennung und Belohnung und sogar weniger grundlegende Karrieresicherheit"[48]

Aus diesen Gründen halten die Autoren dafür, dass sich die Psychologie als Disziplin in einem sozialen Dilemma befindet, in dem die Interessen der Disziplin im Widerspruch zu den Interessen des einzelnen Forschers stehen.

Medizin

Medizinische Forscher gehörten zu den ersten, die Alarm schlugen, als es um die mangelnde Reproduzierbarkeit von vorklinischen Studien zu Arzneimitteln ging, die für den industriellen Einsatz bestimmt waren.[49] Dieser Mangel an Reproduzierbarkeit und damit an Zuverlässigkeit in der Forschung begann für Pharmaunternehmen zu einem wachsenden Problem zu werden, da ihre Entscheidungen, in welche Arzneimittelziele sie Geld für teure klinische Forschung investieren wollen, hauptsächlich von solchen Studien abhängen.

Von 49 medizinischen Studien von 1990-2003, mit mehr als 1000 Zitierungen, behaupteten 45, dass die studierte Therapie wirksam sei. Von diesen Studien wurden 16% durch Folgestudien widerlegt, 16% hatten stärkere Effekte gefunden als Folgestudien, 44% wurden repliziert, und 24% blieben weitgehend unangefochten.[50] Die US Food and Drug Administration fand in den Jahren 1977-1990 Fehler in 10-20% der medizinischen Studien.[51] In einer 2012 veröffentlichten Arbeit stellten Glenn Begley, ein Biotech-Berater, der bei Amgen arbeitet, und Lee Ellis von der University of Texas fest, dass nur 11% der vorklinischen Krebsstudien repliziert werden könnten.[52][53]

Ein Artikel vonJohn Ioannidis, Professor für Medizin und Gesundheitsforschung und -politik an der Stanford University School of Medicine und Professor für Statistik an der Stanford University School of Humanities and Sciences, ging 2016 darauf ein , „warum die meiste klinische Forschung nichts nützt“ ("Why Most Clinical Research Is Not Useful")".[54] Im Artikel legte Ioannidis einige der Probleme dar und forderte eine Reform mit bestimmten Charakteristika, damit die medizinische Forschung wieder nützlich sei; ein Beispiel dafür war die Notwendigkeit, dass die Medizin "patientenzentriert" sein müsse (z.B. in Form des Patient-Centered Outcomes Research Institute) anstelle der derzeitigen Praxis, sich hauptsächlich um "die Bedürfnisse von Ärzten, Forschern oder Sponsoren" zu kümmern. Ioannidis ist seit der 2005 erschienenen Arbeit "Why Most Published Research Findings Are False"[55] bekannt für seinen Forschungsschwerpunkt auf der Wissenschaft selbst.


Fußnoten

  1. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  2. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  3. Rupert Sheldrake: The Science Delusion – Freeing the Spirit of Enquiry; London 2012, Hodder& Stoughton, ISBN 978 1 444 72795 1. Chapter 11. Illusions of Objectivity.
  4. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  5. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  6. Staddon, John (2017) Scientific Method: How science works, fails to work or pretends to work. Taylor and Francis.
  7. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  8. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  9. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  10. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  11. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  12. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  13. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  14. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  15. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  16. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  17. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  18. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  19. 19,0 19,1 19,2 Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  20. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  21. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  22. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  23. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  24. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  25. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  26. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  27. Inhaltsverzeichnis
  28. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  29. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  30. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  31. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  32. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  33. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  34. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  35. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  36. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  37. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  38. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  39. 39,0 39,1 Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  40. 40,0 40,1 Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  41. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  42. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  43. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  44. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  45. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  46. See also Earp and Trafimow, 2015
  47. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  48. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  49. Believe it or not: how much can we rely on published data on potential drug targets? by Florian Prinz, Thomas Schlange & Khusru Asadullah, in: Nature Reviews Drug Discovery volume10, page712 (2011)
  50. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  51. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  52. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  53. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  54. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted
  55. Lua-Fehler: Der Prozess konnte nicht erstellt werden: proc_open(/dev/null): failed to open stream: Operation not permitted