Versuchsplanung - Design of experiments

Versuchsplanung mit vollfaktoriellem Versuchsplan (links), Antwortfläche mit Polynom zweiten Grades (rechts)

Das Design von Experimenten ( DOE , DOX oder experimentelles Design ) ist das Design jeder Aufgabe, die darauf abzielt, die Variation von Informationen unter Bedingungen zu beschreiben und zu erklären, von denen angenommen wird, dass sie die Variation widerspiegeln. Der Begriff wird im Allgemeinen mit Experimenten in Verbindung gebracht , bei denen das Design Bedingungen einführt, die die Variation direkt beeinflussen, kann sich aber auch auf das Design von Quasi-Experimenten beziehen , bei denen natürliche Bedingungen, die die Variation beeinflussen, zur Beobachtung ausgewählt werden.

In seiner einfachsten Form zielt ein Experiment darauf ab, das Ergebnis vorherzusagen, indem eine Änderung der Vorbedingungen eingeführt wird, die durch eine oder mehrere unabhängige Variablen repräsentiert wird , die auch als "Eingabevariablen" oder "Prädiktorvariablen" bezeichnet werden. Es wird allgemein angenommen, dass die Änderung einer oder mehrerer unabhängiger Variablen zu einer Änderung einer oder mehrerer abhängiger Variablen führt , die auch als "Ausgabevariablen" oder "Antwortvariablen" bezeichnet werden. Das experimentelle Design kann auch Kontrollvariablen identifizieren , die konstant gehalten werden müssen, um zu verhindern, dass externe Faktoren die Ergebnisse beeinflussen. Experimentelles Design beinhaltet nicht nur die Auswahl geeigneter unabhängiger, abhängiger und Kontrollvariablen, sondern auch die Planung der Durchführung des Experiments unter statistisch optimalen Bedingungen angesichts der Beschränkungen der verfügbaren Ressourcen. Es gibt mehrere Ansätze zur Bestimmung des Satzes von Designpunkten (eindeutige Kombinationen der Einstellungen der unabhängigen Variablen), die im Experiment verwendet werden sollen.

Hauptanliegen beim Versuchsdesign sind die Feststellung von Validität , Reliabilität und Replizierbarkeit . Diesen Bedenken kann beispielsweise teilweise begegnet werden, indem die unabhängige Variable sorgfältig ausgewählt, das Risiko von Messfehlern verringert und eine ausreichend detaillierte Dokumentation der Methode sichergestellt wird. Damit verbundene Bedenken umfassen das Erreichen angemessener statistischer Aussagekraft und Sensitivität .

Richtig angelegte Experimente fördern das Wissen in den Natur- und Sozial- und Ingenieurwissenschaften. Andere Anwendungen umfassen Marketing und Politikgestaltung. Das Studium der Versuchsplanung ist ein wichtiges Thema der Metawissenschaften .

Geschichte

Statistische Experimente nach Charles S. Peirce

Eine Theorie der statistischen Inferenz wurde von Charles S. Peirce in „ Illustrations of the Logic of Science “ (1877–1878) und „ A Theory of Probable Inference “ (1883) entwickelt, zwei Veröffentlichungen, die die Bedeutung von randomisierungsbasierten Inferenzinferenzen betonten Statistiken.

Randomisierte Experimente

Charles S. Peirce randomisiert Freiwilligen zu einer verblindeten , wiederholte Messungen Design ihre Fähigkeit zu diskriminieren Gewichte zu bewerten. Peirces Experiment inspirierte andere Forscher in Psychologie und Pädagogik, die im 19. Jahrhundert eine Forschungstradition randomisierter Experimente in Labors und Fachbüchern entwickelten.

Optimale Designs für Regressionsmodelle

Charles S. Peirce trug auch die erste englischsprachige Publikation auf einem optimalen Entwurf für Regressionsmodelle in 1876. Ein zukunftsweisendes optimalem Design für Polynomregression durch vorgeschlagen wurde Gergonne im Jahr 1815. Im Jahr 1918 Kirstine Smith veröffentlichte optimales Design für Polynome vom Grad sechs ( und weniger).

Versuchsreihen

Die Verwendung einer Abfolge von Experimenten, deren Design von den Ergebnissen früherer Experimente abhängen kann, einschließlich der möglichen Entscheidung, das Experimentieren einzustellen, liegt im Rahmen der Sequenzanalyse , einem Gebiet, das von Abraham Wald im Kontext von sequentielle Tests statistischer Hypothesen. Herman Chernoff schrieb einen Überblick über optimale sequentielle Designs, während adaptive Designs von S. Zacks untersucht wurden. Eine bestimmte Art von sequentiellem Design ist die „zweiarmigen Banditen“, verallgemeinerten auf den mehrarmige Banditen , auf dem Frühwerk fertig war Herbert Robbins im Jahr 1952.

Fischers Prinzipien

Eine Methodik für das Design von Experimenten wurde von Ronald Fisher in seinen innovativen Büchern The Arrangement of Field Experiments (1926) und The Design of Experiments (1935) vorgeschlagen. Ein Großteil seiner Pionierarbeit beschäftigte sich mit landwirtschaftlichen Anwendungen statistischer Methoden. Als ein banales Beispiel beschrieb er, wie man die Hypothese der Teeprobe der Dame testet , dass eine bestimmte Dame allein durch den Geschmack unterscheiden konnte, ob die Milch oder der Tee zuerst in die Tasse gegeben wurde. Diese Methoden wurden in der biologischen, psychologischen und landwirtschaftlichen Forschung weitgehend adaptiert.

Vergleich
In einigen Studienrichtungen ist es nicht möglich, unabhängige Messungen auf ein rückführbares Metrologie-Standard durchzuführen . Vergleiche zwischen Behandlungen sind viel wertvoller und in der Regel vorzuziehen und werden oft mit einer wissenschaftlichen Kontrolle oder einer traditionellen Behandlung verglichen , die als Ausgangsbasis dient.
Randomisierung
Zufallszuordnung ist der Prozess der zufälligen Zuordnung von Personen zu Gruppen oder zu verschiedenen Gruppen in einem Experiment, so dass jede Person der Population die gleiche Chance hat, an der Studie teilzunehmen. Die zufällige Zuordnung von Individuen zu Gruppen (oder Bedingungen innerhalb einer Gruppe) unterscheidet ein rigoroses, „echtes“ Experiment von einer Beobachtungsstudie oder einem „Quasi-Experiment“. Es gibt eine umfangreiche mathematische Theorie, die die Konsequenzen der Zuweisung von Einheiten zu Behandlungen durch zufällige Mechanismen (wie Tabellen mit Zufallszahlen oder die Verwendung von Zufallsgeräten wie Spielkarten oder Würfeln) untersucht. Die willkürliche Zuweisung von Einheiten zu Behandlungen tendiert dazu, Verwechslungen zu mildern , wodurch Effekte aufgrund anderer Faktoren als der Behandlung so aussehen, als ob sie aus der Behandlung resultieren.
Die mit der zufälligen Zuteilung verbundenen Risiken (z. B. ein schwerwiegendes Ungleichgewicht bei einem Schlüsselmerkmal zwischen einer Behandlungsgruppe und einer Kontrollgruppe) sind kalkulierbar und können daher durch die Verwendung ausreichender Versuchseinheiten auf ein akzeptables Maß reduziert werden. Wenn die Population jedoch in mehrere Subpopulationen unterteilt ist, die sich irgendwie unterscheiden, und die Forschung erfordert, dass jede Subpopulation gleich groß ist, kann geschichtetes Stichprobenverfahren verwendet werden. Auf diese Weise werden die Einheiten in jeder Teilpopulation randomisiert, aber nicht die gesamte Stichprobe. Die Ergebnisse eines Experiments können nur dann zuverlässig von den experimentellen Einheiten auf eine größere statistische Population von Einheiten verallgemeinert werden, wenn die experimentellen Einheiten eine Zufallsstichprobe aus der größeren Population sind; der wahrscheinliche Fehler einer solchen Extrapolation hängt unter anderem von der Stichprobengröße ab.
Statistische Replikation
Messungen unterliegen in der Regel Schwankungen und Messunsicherheiten ; Daher werden sie wiederholt und vollständige Experimente werden repliziert, um die Quellen der Variation zu identifizieren, die wahren Auswirkungen von Behandlungen besser abzuschätzen, die Verlässlichkeit und Validität des Experiments weiter zu stärken und das vorhandene Wissen über das Thema zu erweitern. Bevor mit der Replikation des Experiments begonnen werden kann, müssen jedoch bestimmte Bedingungen erfüllt sein: Die ursprüngliche Forschungsfrage wurde in einer begutachteten Zeitschrift veröffentlicht oder häufig zitiert, der Forscher ist unabhängig vom ursprünglichen Experiment, der Forscher muss zuerst versuchen, die Originalbefunde unter Verwendung der Originaldaten, und die Zuschreibung sollte angeben, dass es sich bei der durchgeführten Studie um eine Replikationsstudie handelt, bei der versucht wurde, der Originalstudie so genau wie möglich zu folgen.
Blockierung
Unter Blockieren versteht man die nicht zufällige Anordnung von Versuchseinheiten in Gruppen (Blöcke), die aus einander ähnlichen Einheiten bestehen. Das Blockieren reduziert bekannte, aber irrelevante Variationsquellen zwischen den Einheiten und ermöglicht somit eine größere Präzision bei der Schätzung der untersuchten Variationsquelle.
Orthogonalität
Beispiel für orthogonalen faktoriellen Versuchsplan
Orthogonalität betrifft die Vergleichsformen (Kontraste), die legitim und effizient durchgeführt werden können. Kontraste können durch Vektoren dargestellt werden und Sätze von orthogonalen Kontrasten sind unkorreliert und unabhängig verteilt, wenn die Daten normal sind. Aufgrund dieser Unabhängigkeit liefert jede orthogonale Behandlung andere Informationen als die anderen. Wenn es T- Behandlungen und T – 1-Orthogonalkontraste gibt, sind alle Informationen, die aus dem Experiment erfasst werden können, aus dem Kontrastsatz erhältlich.
Faktorielle Experimente
Verwendung von faktoriellen Experimenten anstelle der Ein-Faktor-zu-ein-Zeit-Methode. Diese sind effizient bei der Bewertung der Auswirkungen und möglichen Wechselwirkungen mehrerer Faktoren (unabhängige Variablen). Die Analyse des Experimentdesigns basiert auf der Varianzanalyse , einer Sammlung von Modellen, die die beobachtete Varianz in Komponenten aufteilen, je nachdem, welche Faktoren das Experiment schätzen oder testen muss.

Beispiel

Balance à tabac 1850.JPG

Dieses Beispiel für Designexperimente wird Harold Hotelling zugeschrieben und baut auf Beispielen von Frank Yates auf . Die in diesem Beispiel entworfenen Experimente beinhalten kombinatorische Designs .

Die Gewichte von acht Objekten werden mit einer Waagschale und einem Satz von Standardgewichten gemessen . Bei jeder Wägung wird der Gewichtsunterschied zwischen Objekten in der linken Schale und allen Objekten in der rechten Schale gemessen, indem kalibrierte Gewichte auf die leichtere Schale hinzugefügt werden, bis die Waage im Gleichgewicht ist. Jede Messung hat einen zufälligen Fehler . Der durchschnittliche Fehler ist null; die Standardabweichungen der Wahrscheinlichkeitsverteilung der Fehler sind bei verschiedenen Wägungen gleich ; Fehler bei verschiedenen Wägungen sind unabhängig . Bezeichne die wahren Gewichte mit

Wir betrachten zwei verschiedene Experimente:

  1. Wiegen Sie jedes Objekt in einer Pfanne, wobei die andere Pfanne leer ist. Sei X i das gemessene Gewicht des Objekts für i = 1, ..., 8.
  2. Führen Sie die acht Wägungen nach folgendem Schema durch und seien Sie Y i die gemessene Differenz für i = 1, ..., 8:
Dann wird der Schätzwert des Gewichts & theta; 1 ist ,
Ähnliche Schätzungen können für die Gewichte der anderen Artikel gefunden werden. Zum Beispiel

Die Frage der Versuchsplanung lautet: Welches Experiment ist besser?

Die Varianz der Schätzung X 1 von θ 1 beträgt σ 2, wenn wir das erste Experiment verwenden. Wenn wir jedoch das zweite Experiment verwenden, beträgt die Varianz der oben angegebenen Schätzung σ 2 /8. Somit liefert uns das zweite Experiment eine 8-mal höhere Genauigkeit für die Schätzung eines einzelnen Items und schätzt alle Items gleichzeitig mit der gleichen Genauigkeit. Was das zweite Experiment mit acht erreicht, würde 64 Wägungen erfordern, wenn die Gegenstände getrennt gewogen werden. Beachten Sie jedoch, dass die im zweiten Experiment erhaltenen Schätzungen für die Items Fehler aufweisen, die miteinander korrelieren.

Viele Probleme beim Design von Experimenten beinhalten kombinatorische Designs , wie in diesem Beispiel und anderen.

Vermeidung von Fehlalarmen

Falsch positive Schlussfolgerungen, die oft aus dem Druck zur Veröffentlichung oder dem eigenen Bestätigungsbias des Autors resultieren , sind in vielen Bereichen eine inhärente Gefahr. Eine gute Möglichkeit, Verzerrungen zu vermeiden, die möglicherweise zu falsch positiven Ergebnissen in der Datenerfassungsphase führen, ist die Verwendung eines doppelblinden Designs. Bei Verwendung eines Doppelblind-Designs werden die Teilnehmer zufällig experimentellen Gruppen zugeteilt, aber der Forscher weiß nicht, welche Teilnehmer zu welcher Gruppe gehören. Daher kann der Forscher die Reaktion der Teilnehmer auf die Intervention nicht beeinflussen. Experimentelle Designs mit nicht offenbarten Freiheitsgraden sind ein Problem. Dies kann zu bewusstem oder unbewusstem „ P-Hacking “ führen: Versuchen Sie mehrere Dinge, bis Sie das gewünschte Ergebnis erzielen. Es beinhaltet typischerweise die Manipulation – vielleicht unbewusst – des Prozesses der statistischen Analyse und der Freiheitsgrade, bis sie einen Wert unter dem statistischen Signifikanzniveau p<.05 zurückgeben. Daher sollte das Design des Experiments eine klare Aussage enthalten, in der die durchzuführenden Analysen vorgeschlagen werden. P-Hacking kann durch die Vorregistrierung von Forschungen verhindert werden, bei der die Forscher ihren Datenanalyseplan an die Zeitschrift senden müssen, in der sie ihre Arbeit veröffentlichen möchten, bevor sie mit der Datenerhebung beginnen, sodass keine Datenmanipulation möglich ist ( https://osf .io ). Eine andere Möglichkeit, dies zu verhindern, besteht darin, das doppelblinde Design in die Datenanalysephase zu überführen, in der die Daten an einen Datenanalysten gesendet werden, der nicht mit der Forschung in Verbindung steht, der die Daten verschlüsselt, so dass es keine Möglichkeit gibt, vorher zu wissen, zu welchen Teilnehmern gehören sie werden potentiell als Ausreißer weggenommen.

Eine klare und vollständige Dokumentation der experimentellen Methodik ist ebenfalls wichtig, um die Replikation der Ergebnisse zu unterstützen.

Diskussionsthemen beim Aufbau eines experimentellen Designs

Ein experimentelles Design oder eine randomisierte klinische Studie erfordert eine sorgfältige Abwägung mehrerer Faktoren, bevor das Experiment tatsächlich durchgeführt wird. Ein experimentelles Design ist die Aufstellung eines detaillierten Versuchsplans vor der Durchführung des Experiments. Einige der folgenden Themen wurden bereits im Abschnitt Prinzipien des experimentellen Designs diskutiert:

  1. Wie viele Faktoren hat das Design und sind die Ebenen dieser Faktoren fest oder zufällig?
  2. Sind Kontrollbedingungen erforderlich und wie sollten sie sein?
  3. Manipulationsprüfungen; Hat die Manipulation wirklich funktioniert?
  4. Was sind die Hintergrundvariablen?
  5. Was ist die Stichprobengröße. Wie viele Einheiten müssen gesammelt werden, damit das Experiment verallgemeinerbar ist und genügend Leistung hat ?
  6. Welche Bedeutung haben Wechselwirkungen zwischen Faktoren?
  7. Welchen Einfluss haben verzögerte Effekte substanzieller Faktoren auf Outcomes?
  8. Wie wirken sich Antwortverschiebungen auf Selbstberichtsmaße aus?
  9. Wie machbar ist die wiederholte Verabreichung der gleichen Messgeräte an die gleichen Einheiten zu verschiedenen Gelegenheiten mit einem Nachtest und Folgetests?
  10. Wie wäre es mit einem Proxy-Pretest?
  11. Gibt es lauernde Variablen?
  12. Sollte der Kunde/Patient, Forscher oder sogar der Analytiker der Daten gegenüber Bedingungen blind sein?
  13. Wie ist die Möglichkeit einer nachträglichen Anwendung unterschiedlicher Bedingungen auf die gleichen Einheiten?
  14. Wie viele der einzelnen Kontroll- und Lärmfaktoren sollten berücksichtigt werden?

Die unabhängige Variable einer Studie hat oft viele Ebenen oder verschiedene Gruppen. In einem echten Experiment können Forscher eine experimentelle Gruppe haben, in der ihre Intervention die Hypothese testet, und eine Kontrollgruppe, die alle das gleiche Element wie die experimentelle Gruppe enthält, ohne das interventionelle Element. Wenn also alles andere außer einer Intervention konstant gehalten wird, können Forscher mit einiger Sicherheit bestätigen, dass dieses eine Element die beobachtete Veränderung verursacht hat. In einigen Fällen ist es nicht ethisch, eine Kontrollgruppe zu haben. Dies wird manchmal mit zwei verschiedenen experimentellen Gruppen gelöst. In einigen Fällen können unabhängige Variablen nicht manipuliert werden, beispielsweise beim Testen des Unterschieds zwischen zwei Gruppen mit unterschiedlichen Krankheiten oder beim Testen des Unterschieds zwischen den Geschlechtern (offensichtlich Variablen, die den Teilnehmern schwer oder unethisch zuzuordnen wären). In diesen Fällen kann ein quasi-experimentelles Design verwendet werden.

Kausale Zuschreibungen

Im reinen Versuchsdesign wird die unabhängige (Prädiktor-)Variable vom Forscher manipuliert – das heißt, jeder Teilnehmer der Untersuchung wird zufällig aus der Grundgesamtheit ausgewählt und jeder ausgewählte Teilnehmer wird zufällig Bedingungen der unabhängigen Variablen zugeordnet. Nur so kann mit hoher Wahrscheinlichkeit bescheinigt werden, dass der Grund für die Unterschiede in den Ergebnisvariablen durch die unterschiedlichen Bedingungen verursacht wird. Daher sollten Forscher das experimentelle Design nach Möglichkeit anderen Designtypen vorziehen. Die Art der unabhängigen Variablen lässt jedoch nicht immer eine Manipulation zu. In diesen Fällen müssen sich Forscher bewusst sein, dass sie die kausale Zuordnung nicht zertifizieren, wenn ihr Design dies nicht zulässt. In Beobachtungsdesigns werden die Teilnehmer beispielsweise nicht zufällig Bedingungen zugewiesen. Wenn also Unterschiede in den Ergebnisvariablen zwischen den Bedingungen gefunden werden, ist es wahrscheinlich, dass etwas anderes als die Unterschiede zwischen den Bedingungen die Unterschiede in den Ergebnissen verursacht, das ist – eine dritte Variable. Gleiches gilt für Studien mit korrelativem Design. (Adér & Mellenbergh, 2008).

Statistische Kontrolle

Es ist am besten, dass ein Prozess einer angemessenen statistischen Kontrolle unterliegt, bevor geplante Experimente durchgeführt werden. Wenn dies nicht möglich ist, ermöglichen eine ordnungsgemäße Blockierung, Replikation und Randomisierung die sorgfältige Durchführung von entworfenen Experimenten. Um störende Variablen zu kontrollieren, führen die Forscher Kontrollprüfungen als zusätzliche Maßnahmen ein. Forscher sollten sicherstellen, dass unkontrollierte Einflüsse (zB Wahrnehmung der Glaubwürdigkeit der Quelle) die Ergebnisse der Studie nicht verzerren. Eine Manipulationsprüfung ist ein Beispiel für eine Kontrollprüfung. Manipulationsprüfungen ermöglichen es den Ermittlern, die Hauptvariablen zu isolieren, um die Unterstützung dafür zu stärken, dass diese Variablen wie geplant funktionieren.

Eine der wichtigsten Anforderungen an experimentelle Forschungsdesigns ist die Notwendigkeit, die Auswirkungen von störenden , intervenierenden und vorausgehenden Variablen zu eliminieren . Im einfachsten Modell führt Ursache (X) zur Wirkung (Y). Aber es könnte eine dritte Variable (Z) geben, die (Y) beeinflusst, und X könnte überhaupt nicht die wahre Ursache sein. Z wird als Störvariable bezeichnet und muss kontrolliert werden. Dasselbe gilt für intervenierende Variablen (eine Variable zwischen der vermuteten Ursache (X) und der Wirkung (Y)) und die vorausgehenden Variablen (eine Variable vor der vermuteten Ursache (X), die die wahre Ursache ist). Wenn eine dritte Variable beteiligt ist und nicht kontrolliert wurde, wird die Beziehung als Beziehung nullter Ordnung bezeichnet. In den meisten praktischen Anwendungen experimenteller Forschungsdesigns gibt es mehrere Ursachen (X1, X2, X3). In den meisten Designs wird jeweils nur eine dieser Ursachen manipuliert.

Experimentelle Designs nach Fisher

Einige effiziente Designs zum Schätzen mehrerer Haupteffekte wurden 1940 unabhängig und in unmittelbarer Folge von Raj Chandra Bose und K. Kishen am Indian Statistical Institute gefunden , blieben jedoch bis zur Veröffentlichung der Plackett-Burman-Designs in der Biometrie im Jahr 1946 wenig bekannt Gleichzeitig führte CR Rao die Konzepte orthogonaler Arrays als experimentelle Designs ein. Dieses Konzept spielte eine zentrale Rolle bei der Entwicklung der Taguchi-Methoden durch Genichi Taguchi , die während seines Besuchs am Indian Statistical Institute Anfang der 1950er Jahre stattfand. Seine Methoden wurden erfolgreich von der japanischen und indischen Industrie angewendet und übernommen und später, wenn auch mit einigen Vorbehalten, auch von der US-amerikanischen Industrie übernommen.

1950 veröffentlichten Gertrude Mary Cox und William Gemmell Cochran das Buch Experimental Designs, das viele Jahre später zum wichtigsten Nachschlagewerk zum Design von Experimenten für Statistiker wurde.

Die Entwicklungen der Theorie der linearen Modelle haben die Fälle, die frühe Autoren betrafen, erfasst und übertroffen. Heute stützt sich die Theorie auf fortgeschrittene Themen der Linearen Algebra , Algebra und Kombinatorik .

Wie in anderen Zweigen der Statistik wird experimentelles Design sowohl mit frequentistischen als auch mit Bayes- Ansätzen verfolgt: Bei der Auswertung statistischer Verfahren wie experimentellen Designs untersucht die frequentistische Statistik die Stichprobenverteilung, während die Bayes-Statistik eine Wahrscheinlichkeitsverteilung im Parameterraum aktualisiert .

Einige wichtige Mitwirkende auf dem Gebiet der experimentellen Designs sind CS Peirce , RA Fisher , F. Yates , RC Bose , AC Atkinson , RA Bailey , DR Cox , GEP Box , WG Cochran , WT Federer , VV Fedorov , AS Hedayat , J. Kiefer , O. Kempthorne , JA Nelder , Andrej Pázman , Friedrich Pukelsheim , D. Raghavarao , CR Rao , Shrikhande SS , JN Srivastava , William J. Studden , G. Taguchi und HP Wynn .

Die Lehrbücher von D. Montgomery, R. Myers und G. Box/W. Hunter/JS Hunter haben Generationen von Studenten und Praktikern erreicht.

Einige Diskussionen über experimentelles Design im Kontext der Systemidentifikation (Modellbildung für statische oder dynamische Modelle) finden sich in und

Einschränkungen der menschlichen Teilnehmer

Gesetze und ethische Erwägungen schließen einige sorgfältig geplante Experimente mit Menschen aus. Rechtliche Beschränkungen hängen von der Gerichtsbarkeit ab . Einschränkungen können institutionelle Überprüfungsgremien , informierte Einwilligung und Vertraulichkeit betreffen, die sowohl klinische (medizinische) Studien als auch verhaltens- und sozialwissenschaftliche Experimente betreffen. Im Bereich der Toxikologie zum Beispiel Experimente werden Labor durchgeführt an Tieren mit dem Ziel , sichere Expositionsgrenzen für die Definition von Menschen . Den Ausgleich der Einschränkungen bilden Ansichten aus dem medizinischen Bereich. In Bezug auf die Randomisierung von Patienten: "... wenn niemand weiß, welche Therapie besser ist, gibt es keine ethische Notwendigkeit, die eine oder andere Therapie zu verwenden." (S. 380) In Bezug auf das experimentelle Design: "... es ist eindeutig nicht ethisch, Probanden einem Risiko auszusetzen, Daten in einer schlecht konzipierten Studie zu sammeln, wenn diese Situation leicht vermieden werden kann...". (S. 393)

Siehe auch

Verweise

Quellen

  • Peirce, CS (1877–1878), „Illustrationen der Logik der Wissenschaft“ (Reihe), Popular Science Monthly , Bd. 12–13. Relevante Einzelpapiere:
    • (1878 März), "The Doctrine of Chances", Popular Science Monthly , V. 12, März-Ausgabe, S. 604 – 615 . Internetarchiv Eprint .
    • (1878 April), "The Probability of Induction", Popular Science Monthly , V. 12, S. 705 – 718. Internetarchiv Eprint .
    • (1878 Juni), "The Order of Nature", Popular Science Monthly , V. 13, S. 203 –217. Internetarchiv Eprint .
    • (1878 August), "Deduction, Induction, and Hypothesis", Popular Science Monthly , V. 13, S. 470 –482. Internetarchiv Eprint .
    • (1883), "A Theory of Probable Inference", Studies in Logic , S. 126–181 , Little, Brown und Company. (Nachdruck 1983, John Benjamins Publishing Company, ISBN  90-272-3271-7 )

Externe Links