Use LEFT and RIGHT arrow keys to navigate between flashcards;
Use UP and DOWN arrow keys to flip the card;
H to show hint;
A reads text to speech;
340 Cards in this Set
- Front
- Back
Verstehende Psychologie
|
Das Ziel der Wissenschaftler ist: Die Welt zu verstehen und auf der Grundlage von moralischen Werten Rat zu geben.
|
|
Wissenschaftliche Prüfung von Alltagspsychologischem Wissen
|
Trotz Fehler der Alltagspsychologie ist alltagspsychologisches Wissen häufig zutreffend.
Viele intuitive Entscheidungen im Alltag unter bestimmten Voraussetzungen führen sogar zu besseren Ergebnissen als ein systematisches Abwägen aller Informationen (nach Gerd Gigerenzer, 2007) Aber selbst in diesem Fall helfen wissenschaftlich-psychologische Methoden weiter. |
|
Berufliche Relevanz wissenschaftlicher Methoden
|
Man muss die Unterschiede zwischen einem wissenschaftlich-psychologischem und einem alltagspsychologischem Vorgehen deutlich machen können.
Zentraler Stellenwert hat in einer Argumentation die wissenschaftliche Methode, weil sie den entscheidenden Unterschied ausmacht. |
|
Interventionsmethoden in den psychologischen Anwendungsfächern
|
Diese Methoden zielen nicht darauf ab, die Wissenschaftlichkeit von Aussagen zu sichern, sondern bestimmte Wirkungen zu erzielen.
Damit diese Interventionsmethoden als "wissenschaftlich" bezeichnet werden können, müssen die durch sie intendierten Wirkungen wiederrum mit den Methoden der systematischen und wiederholbaren Datenerhebung und -auswertung unter Anwendung geeigneter Untersuchungsdesigns evaluiert werden. |
|
Falsifikation statt Verifikation
|
Eine kritische Prüfung von Hypothesen wird in der wissenschaftlichen Psychologie nicht dadurch vorgenommen, dass bestätigende Belege für eine Vermutung gesammelt werden, also nciht durch Konfirmation.
Es wird vielmehr versucht, eine bestehende Hypothese zu widerlegen, also zu zeigen, dass sie falsch ist. |
|
Messung psychischer Phänomene
|
Zur Messung von Nicht-Beobachtbaren psychischen Konzepten sind andere Instrumente als ein Lineal notwendig. Und man muss sich auch mit der Theorie und Methode des Messens überhaupt auseinandersetzen, um psychische Phänomene messen zu können.
Die Messung dieser trägt erheblich zur deren empirischer Präzisierung bei. Diese Präzision oder Genauigkeit ist insbesondere dann wichtig, wenn die Effekte von Maßnahmen, z. B. zur Reduktion von Stress, gewertet werden sollen. |
|
Psychologie als empirische Wissenschaft
|
Die Psychologie ist eine empirische Wissenschaft und verwendet deshalb nicht nur Methoden nicht nur Generierung und Formulierung von Theorien, sondern auch Methoden zur Erhebung und Analyse von Erfahrungsdaten.
|
|
Hypothetisches Konstrukt
|
Theoretischer Begriff
|
|
Definition und Explikation von Begriffen
|
Damit aus einer Idee oder Vermutung eine neue wissenschaftliche Theorie wird, müssen viele methodisch kontrollierte Einzelschritte (mehrmals) durchlaufen werden. Eine Theorie enthält Begriffe, deren Bedeutung durch Explikations- und Definitionsmethoden festgelegt und präzisiert werden.
|
|
Methoden der Psychologie als Wissenschaft
|
Aus einer bestehenden Theorie werden Hypothesen abgeleitet, die dann empirisch überprüft werden, indem Erfahrungsdaten erhoben, analysiert und im Lichte der Theorie interpretiert werden.
Methoden zur Erhebung von Daten Beobachtung, Befragung, standardisierte Tests Untersuchungsdesigns Experiment, Korrelationsstudie, Einzelfallstudie Methoden zur Datenauswertung Beschreibende und Schließende Statistik, Inhaltsanalyse |
|
Methoden als "Wege" zur Wissenschaft
|
Die Methodenlehre hat auch für die Psycvhologie einen zentralen Stellenwert, weil durch sie die Wissenschaftlichkeit psychologischer Theorien und Befunde gesichert wird.
Im Unterschied zur Alltagspsychologie setzt die Psychologie Methoden ein, die eine systematische Überprüfung und Weiterentwicklung von Theorien durch die geplante und wiederholbare Erhebung, Analyse und Interpretation von Erfahrungsdaten ermöglicht. |
|
Wissenschaftstheorie und Methodologie
|
Was eigentlich Wissenschaft bzw. wissenschaftliche Vorgehen ausmacht, ist Gegenstand der Wissenschaftstheorie.
Die Methodologie als Teilgebiet der Wissenschaftstheorie beschäftigt sich mit der Analyse und Lehre von den Methoden einer Wissenschaft. |
|
Alltagspsychologie vs. wissenschaftlicher Psychologie
"Was" vs. "Wie" |
Der Unterschied besteht also nicht im Gegenstand, im "Was", sondern in der Methode, also im "Wie" der Erkenntnisgewinnung.
|
|
Alltagspsychologie
Unzureichende Prüfung von Vermutungen |
Wenn wir im Alltag eine Erklärung für z.B. ein psychologisches Phänomen liefern, dann überprüfen wir diese Erklärung (im wissenschfltichen Sinn: Hypothese) nicht systematisch.
Wir stützen uns eher u.a. auf Erfahrungen oder Autoritäten, lassen uns von Medien etwas suggerieren etc. |
|
Alltagspsychologie
Fehler beim Umgang mit Wahrscheinlichkeiten |
Besonders deutlich lassen sich Fehler der Alltagspsychologie oder beim alltäglichen Denken zeigen, wenn man den intuitiven Umgang mit Wahrscheinlichkeiten mit den tatsächlich, d.h. stochastisch korrekten Lösungen kontrastiert.
Wie u.a. bei den Beispielen AIDS-Test (Gigerenzer, 2002) "Ziegen-Problem" |
|
Fundamentaler Attributionsfehler (nach Ross)
|
Personen schreiben das Verhalten anderer Personen also eher personalen, das eigene Verhalten eher situationalen Faktoren zu.
|
|
Akteur-Beobachter-Fehler (Jones und Nisbett, 1972)
|
Dieser wird u.a. mit Unterschieden in der Wahrnehmungsperspektive erlkärt.
Akteure "sehen" in einem gegebenen Kontext eher die Anforderungen und Charakteristika einer Situation, während die eigene Person aus dem Wahrnehmungsfokus zurücktritt. Bei Beobachtern ist es umgekehrt: die beobachtete Person steht im Mittelpunkt der Wahrnehmung. |
|
Primacy-Recency-Effekt
|
Bei diesem handelt es sich um Urteilsverzerrungen, die mit der Reihenfolge zusammenhängen, in der Informationen ankommen bzw. dargeboten werden.
Demnach werden die zuerst und die zuletzt dargebotenen Informationen besonders gut erinnert und beeinflussen deshalb das Gesamturteil besonders stark. |
|
Alltagspsychologie
Fehler beim Wahrnehmen, Erinnern und Denken |
Unsere Alltagswahrnehmung täuscht uns manchmal etwas vor, was bei genauerer Prüfung gar nicht der Fall ist.
Beispiel: Müller-Lyer-Täuschung |
|
Alltagspsychologie
Sprachgebrauch |
Als Beispiel:
Wenn die Mitarbeiter eines Unternehmens sagen, sie hätten jetzt mehr Stress, dann ist unklar, was genau "mehr" bedeutet und was ein einzelner Mitarbeiter egentlich genau unter "Stress" versteht. "Mehr" weist natürlich darauf hin, dass der "Stress" zugenommen hat, aber in welchem Ausmaß, bleibt unklar. |
|
Alltagspsychologie
Die Fehler |
Der alltagspsychologische Sprachgebrauch ist mehrdeutig und ungenau
Es gibt alltagspsychologische Fehler beim Wahrnehmen, Erinnern und Denken Der Primacy-Recency-Effekt Der Akteur-Beobachter-Fehler Fehler beim Umgang von Wahrscheinlichkeiten Unzureichende Prüfung von Vermutungen |
|
Warum Methodenlehre in der Psychologie?
|
Die Alltagspsychologie ist fehlerbehaftet.
Die wissenschaftliche Psychologie ist weniger fehlerbehaftet, weil sie bestimmte Methoden einsetzt, um psychologische Fragen zu beantworten. |
|
Modell probabilistischer Kausalerklärungen (Humphreys, 1989)
Vorhersage |
Wenn Gesetzesaussagen bekannt sind und Antezedenzbedingungen korrekt diagnostiziert werden können, dann ist eine Vorhersage möglich.
Wegen der Merkmale von Gesetzen im psychischen Phänomenbereich (Wahrscheinlichkeitsaussagen, Multideterminiertheit, mangelnde Rekonstruierbarkeit) sind aber keine 100-prozentigen deterministischen Vorhersagen, sondern lediglich Wahrscheinlichkeitsaussagen möglich. |
|
Biopsychosoziales Modell
|
Besagt, dass psychische Phänomene von biologischen, psychologischen und sozialen Bedingungen abhängen können.
|
|
Explanandum
|
Dieses beinhaltet eine Beschreibung des zu erklärenden Ereignisses und wir logisch aus dem Explanans abgeleitet.
Beispiel (Explanans und Explanandum): G: Wenn eine Person hohe Prüfungsangst hat, so verringert sich ihre Leistung bei kognitiven Aufgaben. A: P hatte Prüfungsangst. ----------------------------------------- E: P erbrachte eine verringerte Leistung. |
|
Explanans
|
Besteht aus allgemeinen Gesetzen (Hypothesen oder theoretische Annahmen) und Antezedenzbedingungen bzw. Sätzen, die die Antezedenzbedingungen beschreiben.
Beispiel (Explanans und Explanandum): G: Wenn eine Person hohe Prüfungsangst hat, so verringert sich ihre Leistung bei kognitiven Aufgaben. A: P hatte Prüfungsangst. ----------------------------------------- E: P erbrachte eine verringerte Leistung. |
|
Modell probabilistischer Kausalerklärungen (Humphreys, 1989)
Weitere Erklärungen |
Der entscheidende Punkt in dem Modell ist das "F trotz I". Dabei handelt es sich um Listen der zu Y beitragenden bzw. entgegenwirkenden Ursachen.
Ein Ereignis A kann nur dann als Ursache bezeichnet werden, wenn: A zeitlich vor B liegt A und B kovariieren für das Auftreten von B nur das Eintreten von A verantworltlich ist |
|
Modell probabilistischer Kausalerklärungen (Humphreys, 1989)
Bedingungen |
Bedingungen:
Damit etwas eine Ursache ist, muss sie unweigerlich ihre Wirkung hervorrufen. Probabilistische Ursachen erzeugen Änderungen in der Auftrittswahrscheinlichkeit der Wirkung: Zu Y beitragende Ursachen erzeugen eine Zunahme, entgegenwirkende Ursachen erzeugen eine Abnahme der Auftrittswahrscheinlichkeiten von Y. |
|
Modell probabilistischer Kausalerklärungen (Humphreys, 1989)
|
Für die Psychologie eignet sich dieses Modell deutlich besser als das DN-Schema.
Eine adäuqate Erklärung ist demnach folgendermaßen strukturiert: Y in S zur Zeit t (tritt auf, lag vor) aufgrund von F trotz I. Bedeutungen der Abkürzungen nach Westmeyer (2006): Y = Ein Ausdruck, der sich auf eine Eigenschaft oder eine Änderung in einer Eigenschaft bezieht. S = Ein Ausdruck, der sich auf ein System bezieht. F = eine (nicht-leere) Liste von Ausdrücken, die sich auf zu Y beitragende Ursachen bezieht. I = Eine (u.U. leere) Liste von Ausdrücken, die sich auf Y entgegenwirkende Ursachen beziehen. |
|
Problem der Preemption (Achinstein, 1983)
|
Beispiel:
G: Jede Person, die ein Pfund Arsen zu sich nimmt, stirbt binnen 24 Stunden. A: Jones aß ein Pfund Arsen. --------------------------------------- E: Jones starb innerhalb von 24 Stunden. Die Erklärung scheint korrekt, denn die Ableitung aus G und A stimmt weiterhin, aber sie liefert nicht die exakte Erklärung für das Ableben von Jones, denn es kann sein, dass er kurz nach der Einnahme von einem Bus überfahren wurde und dabei gestorben ist. Also war der Bus schneller! |
|
DN-Schema
Einwände |
Die Anforderungen des DN-Schemas können in der Psychologie meistens nicht erfüllt werden.
Einwände: Verletzungen der Adäquatheitsbedingungen Gesetzesaussagen sind noch gar nicht formuliert, geschweige denn geprüft Antezedenzbedingungen sind nur zum Teil bekannt Gut bewährte Gesetzesannahmen fehlen häufig aufgrund der Komplexität des Gegenstandsbereichs der Psychologie In der Psychologie liegen keine deterministischen, sondern lediglich Wahrscheinlichkeitszusammenhänge vor, welche keine Prognose für Einzelfälle erlauben |
|
Adäquatheitsbedingungen (damit eine Erklärung als korrekt gelten kann)
|
Das Argument, das vom Explanans zum Explanandum führt, muss logisch korrekt sein.
Das Explanans muss mindestens ein allgemeines Gesetz enthalten. Das Explanans muss empirisches Gehalt besitzen. Die Sätze, aus denen das Explanans besteht, müssen gut bewährt sein. |
|
Deduktiv-nomologische Erklärung
|
Besteht aus dem Explanans und dem Explanandum.
|
|
DN- bzw. HO-Schema (Hempel, 1977)
|
Dieses ist ein wissenschaftlliches Erklärungsmodell und beschreibt die Struktur deduktiv-nomologischer Erklärungen.
Es bezieht sich in erster Linie auf physikalische Naturgesetze, wurde aber auch innerhalb der Psychologie kritisch diskutiert. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Rationalität |
Macht die Theorie Annahmen über die "Archtitektur" des psychischen Systems, die im Lichte von evolutionären Bedingungen Sinn machen?
Über dieses Kriterium lässt sich streiten, da es eine bestimmte theoretische Perspektive (die Evolutionstheorie) als bedingung für die Angemessenheit anderer Theorien einsetzt. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Angewandte Relevanz |
Hat die Theorie Implikationen für angewandt-psychologische Fragestellungen?
Die praktische Bedeutung, z.B. die Relevanz für die Lösung sozialer und psychischer Probleme, ist also ebenfalls ein wichtiges Kriterium. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Breite |
Lässt sich die Theorie auf einen weiten Bereich von Phänomenen anwenden oder ist sie auf einen engen Phänomenbereich beschränkt?
Gerade in der Psychologie gibt es viele Mini-Theorien, die nur sehr spezifisch und unter ganz bestimmten Randbedingungen anzuwenden sind. Theorien sollten aber einen möglichst breiten Anwendungsbereich haben. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Originalität |
Ist die Theorie neu? (Oder reformuliert sie lediglich bestehende Theorien?)
|
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Einfachheit |
Ist die Theorie so einfach wie möglich?
Dieses Kriterium ist in gewisser Weise relativ und nachgeordnet, da Theorien natürlich auch kompliziert sein können, wenn es einfacher nicht geht. Jedoch sollten immer einfachere den komplexeren Theorien vorgezogen werden, wenn sie dieselben Phänomene erklären. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Erklärungswert |
Erklärt die Theorie bereits vorliegende empirische Befunde?
Da Vorhersagen in der Psychologie in vielen Fällen schwierig und nur eingeschränkt möglich sind, sollte eine Theorie auch nach dem Ausmaß bewertet werden, in dem sie bereits eingetretene Ereignisse erklären kann. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Vorhersage und Falsifizierbarkeit |
Ist die Theorie so formuliert, dass empirische Prüfungen zu einer Widerlegung der Theorie führen können?
Dieses Kriterium entspricht der Hauptforderung des Kritischen Rationalismus. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Kohärenz und Konsistenz |
Enthält die Theorie logische Fehlschlüsse?
Bilden die unterschiedlichen Komponenten einer Theorie ein kohärentes Ganzes? Stimmt die Theorie mit Theorien aus anderen Bereichen überein? |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Präzision und Interpretierbarkeit |
Ist die Theorie so präzise beschrieben, dass sie leicht und eindeutig verstanden und interpretiert werden kann?
Dieses kriterium betriff die Vagheit und Mehrdeutigkeit von Begriffen, die sich mehr oder weniger durch eine ganze Theorie ziehen können. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Deskriptive Angemessenheit |
Stimmt die Theorie mit vorhandenen verhaltensbezogenen, physiologischen, neuropsychologischen und anderen empirischen Daten überein?
Dieses Kriterium betrifft das Ausmaß, in dem die aus einer Theorie ableitbaren Beobachtungen bestätigt werden können. |
|
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
(Alle 10) |
Deskriptive Angemessenheit
Präzision und Interpretierbarkeit Kohärenz und Konsistenz Vorhersage und Falsifizierbarkeit Erklärungswert Einfachheit Originalität Breite Angewandte Relevanz Rationalität |
|
statement view
(Aussagen-Konzeption) 3 Arten wissenschaftlicher Aussagen, denen drei Sprachen zugeordnet werden (Groeben & Westmeyer, 1981) |
Aussagen, die außer den logischen Zeichen nur Beobachtungsbegriffe enthalten und die Ebene der Beobachtung bilden (Beobachtungssprache)
Aussagen, die außer den logischen Zeichen nur theoretische Begriffe enthalten, die den "Knoten" entsprechen (Theoretische Sprache) Aussagen, die außer den logischen Zeichen Beobachtungsbegriffe und theoretische Begriffe enthalten und als "Interpretationsfäden" fungieren (System der Zuordnungsregeln) |
|
Definition und Explikation
Der Unterschied (Groeben & Westmeyer, 1981) |
Bei einer Definition wird einem neuen Zeichen eine bestimmte Bedeutung zugeordnet.
Eine Explikation dagegen basiert auf einem bereits gebräuchlichen Zeichen, dessen Bedeutung eingegrenzt und präzisiert wird. Im wissenschafltichen Alltagsgeschäft werden sie oft synonym verwendet. |
|
Explikation
Die Bedingung: Fruchtbarkeit |
Das Explikat führt zu allgemeinen Aussagen und macht neue Beziehungen deutlich, die mit dem Explikandum nicht deutlich geworden wären.
|
|
Explikation
Die Bedingung: Exaktheit |
Für Explikata müssen präzise Gebrauchsregeln und Anwendungsvorschriften vorhanden sein.
|
|
Explikation
Die Bedingung: Ähnlichkeit mit dem Explikandum |
Diese besagt, dass das Explikat in den meisten Fällen, in denen bisher das Explikandum verwendet wurde, anwendbar sein muss.
|
|
Explikation
|
Hier wird ein Begriff weiterentwickelt, indem ein unexaktes Explikandum in ein exakteres Explikat überführt wird.
Begriffsexplikationen sind in der Psychologie insbesondere dann notwendig, wenn umgangssprachliche Begriffe als wissenschaftliche Begriffe verwendet werden sollen. Ein Begriff muss, um als adäquates Explikat für ein gegebenes Explikandum gelten zu können, bestimmte Bedingungen erfüllen: Ähnlichkeit mit dem Explikandum Exaktheit Fruchtbarkeit Einfachheit (nachgeordnet) |
|
Bedingte und partielle Definition (Groeben & Westmeyer, 1981)
|
Diese sind mit einer Bedingung verknüpft, die gelten muss, damit ein Begriff angewendet werden kann. Über die Anwendbarkeit eines Begriffs lässt sich keine Aussage machen, wenn die Bedingung nicht erfüllt ist; deshalb ist der Begriff auch nur partiell definiert.
Sie treten häufig in Form operationaler Definitionen auf. |
|
Kontextdefintionen (Groeben & Westmeyer, 1981)
|
Diese stellen keine Identität her, sondern geben äquivalente Ausdrücke an, in denen das neue Zeichen vorkommt.
Insbesondere Relationsbegriffe und quantitative Begriffe werden kontextuell definiert. Kontextdefinitionen liegen auch bei Kennzeichnungen, insbesondere bei Namensgebungen vor, z.B. "Sigmund Freud ist Begründer der Psychoanalyse". |
|
Explizite Definitionen (Groeben & Westmeyer, 1981)
|
Stellen eine Identität zwischen Definiendum und Definiens her, indem sie ein neu einzuführendes Zeichen mit einem oder einer Reihe bereits eingeführter Zeichen gleichsetzen.
Durch explizite Definitionen können Begriffe eingeführt werden, die die Kommunikation erleichtern: z. B. aus "Diese Geraden liegen in einer Ebene und schneiden sich nicht" wird "Diese Geraden sind parallel" |
|
Definitionsarten (Groeben & Westmeyer, 1981)
|
Vollständige Definitionen
Explizite Definitionen Kontextdefinitionen Partielle Definitionen Bedingte Definitionen |
|
Definitionskriterien (Suppes, 1957)
|
Eliminierbarkeit
Besagt, dass ein Definiendum an jeder Stelle einer Theorie durch die zuvor nicht definierten Grundbegriffe ersetzt werden kann. Nicht-Kreativität Besagt, dass durch das Definiendum nicht zusätzliche Annahmen in die Theorie eingeführt werden dürfen, die den faktischen Gehalt der Theorie erweitern. |
|
Definition (Radnitzky, 1992)
|
Unter "Definieren" versteht man einen Prozess, in dem einem sprachlichen Ausdruck eine exakte Bedeutung gegeben wird. Das Resultat heißt dann "Definition".
|
|
Definiendum (Radnitzky, 1992)
|
Der zu definierende Ausdruck.
Der Ausdruck, dessen Bedeutung angegeben werden soll. |
|
Definiens (Radnitzky, 1992)
|
Der Audruck, mit dem das Definiendum definiert wird.
|
|
Randintension (Groeben & Westmeyer, 1981)
|
Attribute, die nicht zur Kernintension, aber zur Intension eines Begriffs zählen, werden dagegen der Randintension zugeordnet.
Attribute können von der Randintension in die Kernintension aufgenommen werden und umgekehrt. |
|
Kernintension (Groeben & Westmeyer, 1981)
|
Um ein ausreichendes Maß an intensionaler Bestimmtheit zu sichern, muss eine Kernintension angegeben werden.
Diese enthält die Menge der Attribute, die hinreichend und notwendig sind, damit ein Element in die Extension eines Begriffs aufgenommen werden kann. Attribute können von der Randintension in die Kernintension aufgenommen werden und umgekehrt. |
|
Vagheit sprachlicher Zeichen
|
Liegt dann vor, wenn seine Bedeutung(en) nicht genau angegeben werden können.
Ein Begriff ist vage, wenn seine Intension und/oder Extension unbestimmt ist. Extensionale Unbestimmtheit ist weniger problematisch und sogar erwünscht, solange ein wissenschaftlicher Begriff eine ausreichende intensionale Bestimmtheit aufweist. |
|
Mehrdeutigkeit sprachlicher Zeichen
4 mögliche Beziehungen zwischen Zeichen und Bedeutung (Groeben & Westmeyer, 1981) |
Ein-eindeutige Beziehung
ist dann gegeben, wenn einem bestimmten Zeichen genau eine Bedeutung zukommt Eine ein-mehrdeutige Beziehung liegt vor, wenn ein bestimmtes zeichen mit mehreren Bedeutungen verbunden ist Mehr-Eindeutigkeit kennzeichnet den Fall mehrerer Zeichen mit derselben Bedeutung Mehr-mehrdeutig sind mehrere Zeichen mit denselben und zwar jeweils mehreren Bedeutungen |
|
Intension
|
Begriffsinhalt.
Umfasst die Menge der Attribute oder Merkmale, die eine Einheit aufweisen muss, damit sie zur Extension eines Begriffs gehört. |
|
Extension
|
Begriffsumfang.
Die Menge der Einheiten, die unter den Begriff fallen. |
|
Forschungsprogramme - Gründe fürs Scheitern
|
Das Scheitern kann sowohl durch außerwissenschafltiche Einflüsse als auch durch die offenbar werdende Erfolglosigkeit bedingt sein.
Vor allem Domain-Programme können sich unter dem Einfluss eines neuen Quasi-Paradigmas so verändern, dass ihr Annahmekern und somit das ganze Problem betroffen ist (3. Art der Problembewältigung). |
|
Problemlösung 2. Art
|
Treten nach Herrmann (1976) vor allem in dreierlei Weise auf:
bei der Rezeption außerwissenschaftlich vorgegebener Probleme durch die wissenschaftliche Psychologie, als Ergebnis langfristig erfolgloser Kernanwendungen im Verlauf eines Forschungsprogramms und bei der Übernahme eines Problems aus einem Forschungsprogramm durch "Umstrukturierung" desselben unter den Prämissen eines anderen (oft Typ b-Programme). |
|
Problemlösung - 2 Arten
|
Problemlösung 1. Art
Problemlösung innerhalb von Forschungsprogrammen unter Beibehaltung des Problems und damit des jeweiligen Annahmekerns. Problemlösung 2. Art das (ungelöste) Problem wird durch das Austauschen des Annahmekerns durch ein neues Problem ersetzt. |
|
Problemlösung 1. Art
|
Hier werden aus dem Annahmekern und den veränderbaren Zusatzannahmen Folgerungen gezogen, die bei Herrmann Sekundärannahmen genannt werden.
Die empirischen Erwartungen (Hypothesen) werden aus diesen Sekundärannahmen abgeleitet. Stellt sich nun heraus, dass die tatsächlich empirischen Befunde mit den Hypothesen nicht vereinbar sind, können die Sekundärannahmen aufgegeben bzw. verändert werden, wovon nur die Zusatz-, nicht die Kernannahmen betroffen sind. |
|
Nicht-Aussagen-Konzeption von Theorien
|
Herrmann versuchte diese gegenüber der Aussagen-Konzeption mit in die psychologische Theoriebildung zu übernehmen.
Sie sieht eine Theorie als ein nicht-sprachliches Gebilde an, das sich in zwei Bereiche unterteilen lässt: den Strukturkern der Theorie, der das Fundamentalgesetz und die grundlegenden Nebenbedingungen enthält, die alle Anwendungen miteinander verbinden und die Menge der intendierten Anwendungen, die eine offene Menge darstellt. Aus ihr können alte Elemente entfernt und neue hinzugefügt werden. |
|
Aussagen-Konzeption von Theorien
|
Aus Sicht des empirisch-wissenschaftlichen Wissenschaftsverständnisses besteht Wissenschaft aus einem System von Sätzen, die zueinander nicht im Widerspruch stehen dürfen.
Diese Sichtweise nennt man die "Aussagen-Konzeption". Theorien werden in drei Bereiche aufgegleidert: in die Klasse der theoretischen Aussagen in die Klasse der Beobachtungsaussagen in die Klasse der Zuordnungsregeln |
|
Domain-Forscher und Paradigmen-Forscher im Vergleich nach Herrmann (1979)
|
Wenn der Proponent des Quasi-Paradigmas der Verstärkung erfährt, dass die Verwendbarkeit seines Quasi-Paradigmas etwas in der Aggressionsforschung nichts oder zuwenig erbringt, dann gibt er es keineswegs auf. Er streicht dann höchstens das Aggressionsproblem aus der Anwendungsmenge der Verstärkungskonzeption. Die Aggressionsforschung überlässt er ihrem Schicksal.
Für den Aggressions-(Domain-)Forscher wird die Verstärkungskonzeption obsolet. Für den Verstärkungs-(Paradigmen-)Forscher wird die Aggression obsolet. |
|
Quasi-paradigmatische Forschungsprogramme
|
Auch Typ b-Programme.
Hier hat man eine Theorie und sucht möglichst umfassende Anwendungsmöglichkeiten. Quasi-paradigmatische Forschungsprogramme haben einen indisponiblen Annahmekern, der aus theoretischen Grundannahmen besteht. Herrmann warnt allerdings davor, Typ b-Programme mit Sachverhalten zu verwechseln, die allenfalls als "abschreckende Zerrbilder" eines Quasi-Paradigmas angesehen werden können. |
|
Psychologische Domain-Programme
|
Auch Typ a-Programme.
Hier werden Problemfelder anhand von Theorien erforscht. Das jeweilige Problemfeld ist definiert durch einen Kern von Annahmen (Annahmekern, ähnlich wie bei Lakatos). Annahmekerne bleiben bei der Problembearbeitung unverändert und sind weder richtig oder falsch, sondern allenfalls uninteressant, wenig sinnvoll oder erfolgsversprechend und könnten deswegen verworfen werden. |
|
Theo Herrmanns Darstellung der Psychologie (1976)
|
Diese orientiert sich stark an den wissenschaftstheoretischen Konzepten von Kuhn und Lakatos.
Für Herrmann ist die Psychologie ein "Flechtwerk sich wandelnder wissenschaftlicher Problemlösungsprozesse (Forschungsprogramme)" , also nicht etwas eine Disziplin mit einem einheitlich definierten Gegenstand und einer einheitlichen Methodik. |
|
Feyerabend und seine Meinung zu Lakatos´ Forschungsprogrammen
|
Feyerabend bezeichnet die Methodologie der Forschungsprogramme als einen weiteren Versuch, Gesetz und Ordnung in der Wissenschaft aufrechtzuerhalten und "die Zahl der Freunde der Vernunft zu vermehren und zweifelnden besorgten Rationalisten den Rücken zu stärken".
Die Vernunft könne Lakatos mit seinem "verkleideten Anarchismus" aber nicht retten. Feyerabends Ausweg ist sicherlich der radikalste: "Der einzige Grundsatz, der den Fortschritt nicht behindert, lautet: Anything goes!" (1977) |
|
Positive Heuristik
|
Diese bezieht sich auf die Forschungswege, die beschritten werden sollen.
Mit einer positiven Heuristik ausgerüstet soll der Forscher widersprechende Daten erst einmal ignorieren. Somit kann vor allem groß angelegten Forschungsprogrammen Zeit gegenüber allzu schnellen Falsifikationen gegeben werden. Ist jedoch keine progressive Problemverschiebung aufgrund zu starker Falsifikation mehr möglich, muss auch dieses Programm aufgegeben werden. |
|
Negative Heuristik
|
Diese beinhaltet Regeln, die angeben, welche Forschungswege vermieden werden sollen.
Mit ihrer Hilfe wird gewissermaßen ein "harter Kern" eines Forschungsprogramms festgelegt und tabuisiert. Dieser harte Kern wird mit einem "Schutzgürtel" von Hilfshypothesen umgeben, mit denen Falsifikationsversuche abgewehrt werden. |
|
Degenerative Problemverschiebung
|
Hier wird eine alte Theorie immer stärker durch Falsifikation belastet und lässt sich nur noch durch immer neue "Ad-hoc-Hypothesen" retten.
|
|
Progressive Problemverschiebung
|
Hier werden alte Theorien durch gehaltvolle und bewährte neue Theorien ersetzt.
|
|
Methodologie wissenschaftlicher Forschungsprogramme (Imre Lakatos, 1974/1982)
|
Durch den Entwurf Methodologie wissenschaftlicher Forschungsprogramme hat Lakatos versucht, die Konzeption des raffinierten Falsifikationismus noch weiter zu differenzieren.
Es geht also nicht mehr um einzelne Theorien, sondern um eine Reihe aufeinander bezogener Theorien ("Forschungsprogramm"). |
|
Experimentelle physiologische Psychologie - Entwicklung (Schmidt, 1981)
|
Am Ende des 18. Jh. wurde das Maß für persönliche Reaktionsgeschwinidkeit entdeckt
Nachdem Mitte des 19. Jh. ein genau arbeitender Chronograph entwickelt wurde, konnte in Reaktionsexperimenten die genaue Abweichung jedes Beobachter vom wahren Wert bestimmt werden. Im Jahr 1850 hatte Helmholtz erstmals die Leitungsgeschwindigkeit von Nerven gemessen Klassische Reaktionsexperimente wurden vom dem niederländischen Physiologen Donders durchgeführt Auch Wundt führte Reaktionszeitmessungen durch |
|
Kuhnsche Phasenlehre
Kuhn verfasst ein Postskript, in welchem er dem Begriff Paradigma zwei Bedeutungen gibt. Welche? |
disziplinäre Matrix
Musterbeispiel |
|
Kuhnsche Phasenlehre - Kritik
|
Der Begriff "Paradigma" wird in 21 verschiedenen Bedeutungen verwendet (Mastermann, 1970)
Es gibt Zirkeldefinitionen bei Kuhn. |
|
Kuhnsche Phasenlehre
6. Phase |
Das neue Paradigma.
Das neue Paradigma beginnt sich durchzusetzen und wird in der (vorläufig) letzten Phase so lange zur Grundlage einer neuen, normalen Wissenschaft, bis eine weitere Revolution das Paradigma erneut in Frage stellt. |
|
Kuhnsche Phasenlehre
5. Phase |
Wissenschaftliche Revolution.
Durch die Krise des alten Paradigmas und den Anwärter einer neuen Theorie wird diese Phase ermöglicht. |
|
Kuhnsche Phasenlehre
4. Phase |
Phase der Anomalien.
Hier taucht ein Theorieanwärter auf. Unzufrieden mit den ad hoc-Modifikationen der Theorie suchen einzelne Wissenschaftler oder Gruppen nach neueren Theorien, die in der Lage sind, aogenannte Anomalien, also Erscheinungen, die mit dem bisherigen Paradigma unvereinbar waren, zu erklären. |
|
Kuhnsche Phasenlehre
3. Phase |
Die Krise.
Das Paradigma erweist sich als unbrauchbar, um wichtige Rätsel zu lösen. |
|
Kuhnsche Phasenlehre
2. Phase |
Die normale Wissenschaft.
Kann durch zwei Arten entstehen, entweder durch wissenschaftliche Revolution oder durch den Übergang von der Proto- zur normalen Wissenschaft. Kennzeichen sind hier das Rätsellösen und die Aufräumarbeit, ABER nicht neue Phänomene zu finden! |
|
Kuhnsche Phasenlehre
1. Phase |
Die prä-/vorparadigmatische Phase oder Proto-Wissenschaft.
Hier wird noch nach einem Paradigma gesucht und Kennzeichnung ist die Suche nach brauchbaren Methoden, Problemen und Lösungswegen. |
|
Kuhnsche Phasenlehre nach Thomas Kuhn (1962)
6 Phasen |
Prä- oder vorparadigmatische Phase oder Proto-Wissenschaft
Normale Wissenschaft Krise Phase der Anomalien Wissenschafltiche Revolution Das neue Paradigma |
|
Kritische oder dialektische Theorieansätze:
Grundlegende Positionen |
Wertproblematik
"Emanzipation" und andere historisch begründete Werte sind eingeschlossen Verhältnis von Wissenschaft und Gesellschaft Wissenschaft als gesellschaftlicher Produktionsfaktor mit sozialkritischer Funktion |
|
Neopositivistische bzw. empirisch-analytische Theorieansätze:
Erkenntnismittel (Methodologie) |
Denkmethoden
Logischer Empirismus, Kritischer Rationalismus Tätigkeit des Wissenschaftlers Beschreiben, Erklären, Prognose (Kritik-Kontrolle der Erfahrung) Ansätze strukturell-funktionale Forschungsmethoden und -techniken Regeln und Techniken der empirischen Sozialforschung |
|
Kritische oder dialektische Theorieansätze:
Erkenntnismittel (Methodologie) |
Denkmethoden
Dialektik, Hermeneutik Tätigkeit des Wissenschaftlers kritisch konfrontieren und politisch wirken (Kritik-Korrektur der Erfahrung Ansätze kritisch-historische und "kritisch-empirische" Forschungsmethoden und -techniken historisch-ökonomische, ideologiekritische Analyse mit empirischer Sozialforschung als Hilfsmittel |
|
Kritische oder dialektische Theorieansätze:
Erkenntnis-Ziel, Erkenntnis-Interesse, Erkenntnis-Gegenstand |
Erkenntnis-Ziel
historisches Gesetz, Gesellschaftskritik Erkenntnis-Interesse emanzipatorisches (Selbstreflexion) Erkenntnis-Gegenstand Gesellschaft |
|
Neopositivistische bzw. empirisch-analytische Theorieansätze:
Grundlegende Positionen |
Wertproblematik
Streben nach Wertfreiheit (zumindest im Forschungsprozess) Verhältnis von Wissenschaft und Gesellschaft Trennung (wertneutrale Aufklärung) |
|
Neopositivistische bzw. empirisch-analytische Theorieansätze:
Erkenntnis-Ziel, Erkenntnis-Interesse, Erkenntnis-Gegenstand |
Erkenntnis-Ziel
nomothetische Sätze; technologische Anweisungen Erkenntnis-Interesse technisches (Verfügung über vergegenständlichte Prozesse) Erkenntnis-Gegenstand Verhalten von Individuen, Gruppen, Organisationen |
|
Normativ-ontologische Theorieansätze:
Grundlegende Positionen |
Wertproblematik
Einschluss ontologisch und anthropologisch begründeter Werte Verhältnis von Wissenschaft und Gesellschaft Sinngebung: Aufklärung als konservatives Moment, Ratgeber |
|
Normativ-ontologische Theorieansätze:
Erkenntnismittel (Methodologie) |
Denkmethoden
Hermeneutik, Phänomenologie, Verstehende Psychologie Tätigkeit des Wissenschaftlers wissenschaftliches Nach- und Vordenken, Verstehen Ansätze historisch-genetische, ideengeschichtliche Forschungsmethoden und -techniken Quellen- und Textkritik, historisch-philosophische Argumentation |
|
Normativ-ontologische Theorieansätze:
Erkenntnis-Ziel, Erkenntnis-Interesse, Erkenntnis-Gegenstand |
Erkenntnis-Ziel:
idiographische Beschriebung, praktischer Rat Erkenntnis-Interesse: praktisches (Konsensus von Handelnden) Erkenntnis-Gegenstand: Sinn und Wesen von Staat, Gesellschaft, Mensch, Educandus usw. |
|
Klaus Holzkamp - Zwischen zwei Extremen
|
Klaus Holzkamp steht in der Reihe der marxistisch orientierten Theoretiker zwischen zwei Extremen.
Er hält eine Kritische Psychologie als marxistische Individualwissenschaft für möglich und notwendig, ordnet sie jedoch der marxistischen gesellschaftlich-historischen Analyse unter. |
|
Kritik der Kritischen Psychologen an der Bürgerlichen Psychologie, u.a. von Holzkamp
|
1.
Die bürgerliche Psychologie arbeitet mit der Fiktion des aus seinen gesellschaftlichen Bezügen herausgelösten Individuums ( --> Experiment). ... 2. Die Theorien der bürgerlichen Psychologie sind beliebig, Theoriegeschichte nimmt sich daher wie ein Wechsel von Moden dar. ... |
|
Kritische Psychologie nach Holzkamp
|
Kritische Psyychologie steht in der Holzkamp-Schule für die marxistisch fundierte psychologische Forschung und Praxis.
Sowohl Inhalte, Methoden und Anwendungen der "bürgerlichen" Psychologie wird von der Kritischen Psychologie kritisiert. |
|
Positivismusstreit
|
Wissenschaftstheoretische Diskussion zwischen Vertretern der Frankfurter Schule (Adorno, Marcuse, Habermas) mit Vertretern des Neopositivismus wie Popper und Albert.
Popper und Albert bezogen sich im diesem sogenannten Positivismusstreit zum Teil auf den früher ausgetragenen Werturteilsstreit. Die Vertreter der Frankfurter Schule versuchten, im Positivismusstreit herauszustellen, dass jeder Theoriebildung immer schon ein Erkenntnisinteresse vorausgehe (Habermas) und dass Theorien von Herrschaftsinteressen durchsetzt seien (Adorno). |
|
Werturteilsstreit
|
Max Weber (1864-1920) forderte die Trennung von Werturteilen und wissenschaftlichen Sätzen.
|
|
Frankfurter Schule
|
Diese versuchte, die Gesellschaftstheorie von Marx philosophisch , historisch und psychoanalytisch neu zu interpretieren.
Vertreter: Theodor W. Adorno (1903-1969) Erich Fromm (1900-1980) Max Horkheimer (1895-1973) Herbert Marcuse (1898-1979) Jürgen Habermas (1929-heute) |
|
Belastetheitsgrad (Holzkamp, 1972)
|
Je höher der Belastetheitsgrad einer Theorie ist, d.h. je mehr nur durch Exhaustion eine Annahme aufrechterhalten werden kann, um so mehr verringert sich ihr "empirischer Wert" bzw. ihr "Realisationsgrad".
|
|
Konstruktivismus
"Eindeutigkeit" statt "Wahrheit" |
Im Konstruktivismus ist der Anspruch, die Wahrheit erkennen zu können, aufgegeben worden, es geht hier nur noch um den "Willen zur Eindeutigkeit".
Holzkamp unterscheidet hierbei zwischen dem Streben nach systemimmanenter und systemtranszendenter Eindeutigkeit. |
|
Konstruktivismus
Dominanz der Theorie gegenüber der Empirie |
Im Konstruktivismus hat die Theorie eine absolute Dominanz gegenüber der Empirie. So ist auch konsequenterweise jeglicher Anspruch darauf, die "Wahrheit" erkennen zu können, aufgegeben worden.
Stattdessen geht es hier nur noch um den "Willen zur Eindeutigkeit". (Holzkamp, 1972) |
|
Exhaustion
|
Da nie mit Sicherheit entscheidbar ist, ob eine Theorie fehlerhaft oder bei ihrer experimentellen Überprüfung Fehler gemacht wurden, kann man widersprechende empirische Ergebnisse mit entsprechender Phantasie und Kreativität immer irgendwelchen "Störquellen" zuschreiben.
Es werden alle Möglichkeiten ausgeschöpft, eine Theorie oder Hypothese vor der Falsifikation zu retten. Durch Exhaustion werden Theorien der Realität gegenüber immunisiert, ihr Scheitern wird unmöglich. |
|
Popper2
Raffinierter Falsifikationismus |
Bedeutsam sind hier die Konzepte
empirischer Gehalt (Informationsgehalt) und Wahrheitsnähe. Diese stehen anstelle der Widerlegung im Vordergrund. Eine Theorie wird nur dann aufgegeben, wenn gleichzeitig eine Alternativtheorie mit höherem Wahrheitsgehalt und höherer Bewährung (Wahrheitsnähe) existiert. |
|
Popper1
Naiver Falsifikationismus |
Hiernach kann man eine Theorie zwar nicht endgültig empirisch widerlegen, trotzdem soll die Falsifikation einer Theorie im Allgemeinen als endgültig betrachtet werden.
|
|
Popper0
Dogmatischer Falsifikationismus |
Man kann mit Wissenschaft zwar nicht beweisen, aber man kann Theorien widerlegen.
Der Fortschritt der Wissenschaft vollzieht sich über kühne Theorieentwürfe, die durch endgültige Widerlegungen falsifiziert und durch noch kühnere Theorien ersetzt werden. Diese Position würde voraussetzen, dass es für die Falsifikation absolut "wahre" Basissätze gibt - eine Auffassung, die Popper selbst für unhaltbar erklärt. Popper selbst hat diese Fassung der Wissenschftslehre selbst nie so vertreten. |
|
Falsifikationskonzepte
Drei verschiedene Konzeptionen nach Imre Lakatos (1974) |
Popper0
Popper1 Popper2 |
|
Theorie, die falsifizierbar ist - Was muss sie beinhalten?
|
"Eine Theorie heißt "empirisch" bzw. "falsifizierbar", wenn sie die Klasse aller überhaupt möglichen Basissätze eindeutig in zwei nichtleere Teilklassen zerlegt:
in die Klasse jener, mit denen sie in Widerspruch steht, die sie "verbietet" (Klasse der Falsifikationsmöglichkeiten) und in die Klasse jener, mit denen sie nicht in Widerspruch steht, die sie "erlaubt" Oder kürzer: Eine Theorie ist falsifizierbar, wenn die Klasse der Falsifikationsmöglichkeiten nicht leer ist." (Popper, 1982) |
|
Basissatz
|
Poppers Basissätze sind gewissermaßen die Nachfolger der Protokollsätze des logischen Empirismus.
"Basissätze sind also - in realistischer Ausdrucksweise - Sätze, die behaupten, dass sich in einem individuellen Raum-Zeit-Gebiet ein beobachtbarer Vorgang abspielt." (Popper, 1982) |
|
Faslifikationsprinzip nach Popper
|
Nach der Popper muss der Forscher nicht versuchen, Theorien und Hypothesen zu belegen, sondern er muss versuchen, sie zu widerlegen.
Ist eine Theorie sehr häufig der "Bewährungsprobe" eines Falsifikationsversuches unterzogen worden, schlägt Popper vor, sie als "bewährt" zu bezeichnen, was jedoch nicht bedeutet, dass sie auch "richtig" oder "wahr" ist, weil sie theoretisch immer noch falsifiziert werden kann. |
|
Kritischer Rationalismus
|
Wurde 1934/35 von dem damals 32jährigen Karl R. Popper mit seinem berühmten Buch "Logik der Forschung" (1934) begründet.
Vor allem steht der Kritische Rationalismus dafür, dass Hypothesen nicht mehr verifiziert, sondern falsifiziert werden sollen. |
|
Verifikation von Hypothesen
|
Hypothesen sollen empirisch "verifiziert" werden.
Je häufiger dies gelingt, sich also eine Hypothese also empirisch bestätigen lässt, desto höher soll ihr Vorhersagewert für zukünftige Ereignisse sein. |
|
Logischer Empirismus
Methode der empirischen Überprüfung |
Induktion
Aber im Gegensatz zum naiven Empirismus wird die Induktion allerdings beträchtlich eingeschränkt. Es geht hier darum, den Geltungsanspruch hypothetischer Vorhersagen aufgrund von früher gewonnenen Beobachtungen zu begründen, also zu verifizieren. |
|
Protokollsatz
|
Für den logischen Empiristen besteht Wissenschaft aus einem System von Sätzen, die zueinander nicht in Widerspuch stehen dürfen. Wie können derartige Satzsysteme mit der Realität in Beziehung gebracht werden?
Durch Protokollsätze! Diese sind singuläre Sätze, die sich unmittelbar auf Beobachtungsdaten beziehen, die die Realität also "direkt" beschreiben sollen. Protokollsätze stellen damit die Verbindung zwischen den rein sprachlichen Satzsystemen und der Realität her. |
|
Wiener Kreis
|
Begründer:
Carnap Schlick Sie gelten als Vertreter des Logischen Empirismus. |
|
Logischer Empirismus
|
Die logischen Empiristen erkannten, dass einem die Natur nicht sagen kann, was man an ihr beobachten soll. Der Forscher muss also schon vorher wissen, was er beobachten soll.
Wissenschaft beginnt also nicht mit der Erfahrung, sondern mit theoretischen Konzepten. Vertreter: Rudolf Carnap (1891-1970) Moritz Schlick (1882-1936) Ludwig Wittgenstein (1889-1951) |
|
Naiver Empirismus
|
Für den naiven Empiristen lassen sich mit Hilfe der Wissenschaft "wahre" Erkenntnisse über die Natur gewinnen. Über Beobachtung und Experiment werden Daten gesammelt, aus denen dann über Generalisierung, Abstraktionen usw Gesetzmäßigkeiten abgeleitet werden, welche dann im Idealfall "Naturgesetze" darstellen, die der Forscher nur "entdecken" muss.
Wird heute von keinem Wissenschaftstheoretiker mehr vertreten. Die Position des englischen Positivismus wird als "naiver Empirismus" bezeichnet. |
|
Dreistadiengesetz nach Comte
|
Die Entwicklung der Menschheit verläuft in drei verschiedenen Zuständen bzw. Stadien ab:
Dem theologisch bzw. fiktiven, dem metaphysischen bzw. abstrakten und dem wissenschaftlichen bzw positivistischen Zustand. Erst im positivistischen Stadium hat die Menschheit den religiösen und den metaphysischen Aberglauben überwunden und das wissenschafltiche Denken erreicht. |
|
Positivismus
|
Vorläufer der modernen empirisch-analytischen Wissenschaftsauffasung.
Der ältere Empirismus oder Positivismus geht wesentlich auf David Hume (1711-1776) und August Comte (1798-1857) zurück. Comte forderte, von dem Gegebenen, vom Tatsächlichen, eben vom "Positiven" auszugehen. |
|
nomothetisch
|
empirisch-analytisch
Geht auf den dt. Philosophen Wilhelm Windelband (1848-1915) zurück, der die auf die Gesetze zielende Methode der Wissenschaft als "nomothetisch" bezeichnete, auf der anderen Seite das Einzelne, Ideelle, geschichtlich hervorhebende Methode der Geisteswissenschaft als "idiographisch" bezeichnete. |
|
Karl Jaspers
|
1883 - 1969
Arzt, Psychiater und Philosoph Bevor er sich ganz der Philosophie zuwandte, bemühte er sich um die Erweiterung der Psychiatrie durch geisteswissenschaftliche Perspektiven. Jaspers fordert in seiner "Allgemeinen Psychopathologie" (1913) eine sorgfältige Beschreibung von psychischen Störungen, wobei er zunächst von einer Diagnose der Entstehung dieser Störung absehen will. Dieses Vergegenwärtigen seelischer Zustände sieht Jaspers als Phänomenologie an. |
|
Verstehen nach Eduard Spranger
|
Spranger möchte aus einer ursprünglichen Phantasietätigkeit die ganze Struktur der Welt verstehen. Immer wieder spricht er von "Sinn", "Wert-Ganzes", "Sinn-Ganzes" usw.
Ohne dass jeweils ganz klar ist, was damit gemeint ist. Offensichtlich ist für Spranger, dass es einen übergeordneten Sinn menschlichen Handelns gibt, der durch intuitives Verstehen erschlossen werden kann. |
|
Wilhelm Dilthey
|
1833 - 1911
Wird als Begründer der Verstehenden Psychologie angesehen. Er selber sprach von "Realpsychologie" (1865) und dann von "Beschreibender und zergliedernder Psychologie" (1894) und zuletzt von "Strukturpsychologie" (Nachlassfragment). Für Dilthey ist Psychologie Erfahrungswissenschaft, wobei er sich ausdrücklich auf den Positivismus beruft. |
|
Phänomenologie
|
Historisches Paradigma
|
|
Hermeneutischer Zirkel
|
Das Problem, dass historische Zeugnisse sich gegenseitig erhellen, und man eigentlich schon wissen muss, was man erst wissen will.
|
|
Ontologie
|
Ist die Seinslehre, derjenige Teil der Metaphysik, der eine Wissenschaft von den allgemeinsten Seinsbestimmungen sein will. Eine Logik des Wirklichen.
|
|
Normative Wissenschaft
|
Dies sind jene Wissenschaften, die die Normen und Werte menschlichen Handelns oder künstlerischem Schaffens als Grundlage und Maßstab anerkennen.
|
|
Normativ-ontologische Theorieansätze - 3 zentrale Begriffe
|
Hermeneutik (Kunst der Auslegung von Schriften)
Verstehende Psychologie Phänomenologie |
|
Hermeneutik
|
Textinterpretation
|
|
Vertreter der normativ-ontologischen Theorieansätze
|
Lersch
Wellek Spranger Bollnow Dilthey Klages |
|
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
4. & 5. Kategorie Reinterpretation bestehender Forschungsergebnisse Datensammlung und Reanalyse bestehender Datensätze |
Die Heuristiken der vierten und fünften Kategorie setzen voraus, dass man bereitsumfangreiche psychologische Kentnisse erworben hat und lassen sich beispielsweise beim Fall des Psychologiestudenten anwenden, der seine Bachelor-Arbeit schreibt.
Heuristiken, die darin bestehen, dass bestehende Forschungsergebnisse reinterpretiert werden, können z. B. immer dann angewendet werden, wenn sich die Ergebnisse verschiedener empirischer Studien zu einer Fragestellung widersprechen. In diesem Fall geht es dann darum, nach Erklärungen für diese Widersprüche zu suchen. |
|
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
3. Kategorie Komplexe konzeptuelle Analysen |
Ein Beispiel ist die Analogiebildung: Diese soll anhand von der von Gigerenzer (1988) identifizierten "Tools-to-Theories"-Heuristik veranschualicht werden.
Bei "T-t-T" geht es im Kern um einen Analogieschluss, also um die metaphorische Übertragung eines Merkmals oder einer Struktur aus dem Bereich der "Tools" auf den Bereich der "Theories". Es wurden also neue Theorien über kognitive Prozesse durch Analogiebildung gefunden, indem "Werkzeuge", mit denen ein Forscher ohnehin arbeitete, auf psychologische Fragestellungen übertragen wurden. |
|
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
2. Kategorie Einfache konzeptuelle Analysen |
Hier besteht die Kernoperation darin, Konzepte oder Aussagen in einem Gedankenexperiment zu "manipulieren".
Beispiel: Wenn man die Kausalitätsrichtung einer bisher bestehenden Hypothese umdreht, z.B. "der Konsum von gewalthaltigen Computerspielen erhöht die Aggressivität" würde dann resultieren "Aggressivität erhöht den Konsum von Computerspielen". Oder eine Kausalitätsreversion, wie beispielsweise bei Festingers Theorie der kognitiven Dissonanz, wo anstelle der Hypothese "Einstellungsänderung führt zu Verhaltensänderung" die Hypothese "Verhaltensänderung führt zu Einstellungsänderung" untersucht wurde. |
|
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
1. Kategorie Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen |
Diese Heuristiken innerhalb der ersten Kategorie erfordern die Identifikation und Hinwendung zu in irgendeiner Weise ungewöhnlichen oder provozierenden Phänomenen, die mit bisherigen Theorien gar nicht oder nur sehr schwer vereinbar sind.
McGuire nennt auch solche Heuristiken, die im sogenannten Grounded-Theory-Ansatz von Glaser und Strauss (1967) verwendet werden. |
|
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
Jeweils ein Beispiel aus den fünf Kategorien, die McGuire verwendet. |
Die fünf Kategorien klassifizieren zunehmend komplexere Heuristiken und lauten:
Heuristiken, die Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen erfordern Einfache konzeptuelle Analysen Komplexe konzeptuelle Analysen Reinterpretation bestehender Forschungsergebnisse Datensammlung und Reanalyse bestehender Datensätze |
|
Deduktion
|
Hier ist der Ausgangspunkt eine allgemeine Regel und ein spezifischer Fall und es wird auf eine Beobachtung geschlossen.
Regel: Alle Autos aus Deutschland sind zuverlässig. Fall: Dieses Auto ist aus Deutschland. ------------------------------------------------------------------------ Schluss auf Beobachtung: Dieses Auto ist zuverlässig. |
|
Abduktion (nach Peirce)
|
Es liegen eine allgemeine Regel und eine spezifische Beobachtung und der Schluss folgt auf einen spezifischen Fall:
Regel: Alle Autos aus Deutschland sind zuverlässig. Beobachtung: Dieses Auto ist zuverlässig. ------------------------------------------------------------------------- Schluss auf Fall: Dieses Auto kommt aus Deutschland. |
|
Induktion
|
Hier geht man von einem spezifischen Fall und einer spezifischen Beobachtung aus und schließt auf eine allgemeine Regel.
Fall: Dieses Auto ist aus Deutschland. Beobachtung: Dieses Auto ist zuverlässig. ------------------------------------------------------------------------------------ Schluss auf Regel: Alle Autos aus Deutschland sind zuverlässig. |
|
Plötzliche Einfälle
|
In der Geschichte der Wissenschaft finden sich viele Beispiele, in denen Forscher durch plötzliche EInfälle , die ihnen meist unter entspannten Umstädnen "zuflogen", wissenschaftliche Probleme lösen konnten.
|
|
bed, bathroom, bicycle
|
Der so beschriebene entspannte Kontext ist eine von mehreren Bedingungen, die nach den anekdotischen Beobachtungen zu neuen Ideen führen können.
Zudem scheint es notwendig zu sein, dass man sich vorher intensiv mit einer Fragestellung oder einem Forschungsgebiet auseinandergesetzt hat und in dem entspannten Kontext eben gerade nicht über die Frage nachdenkt. |
|
Inferenzstatistik
|
Schließende Statistik
|
|
Berechnung von Skalenwerten
|
Setzen sich zusammen aus der Addition von Einzelwerten oder durch komplexere Verfahren der Zusammenfassung.
Werden als Messwerte für das jeweilige Konstrukt jeder Person der Untersuchung für die weitere Auswertung zugeordnet. |
|
Deskriptive Auswertung
|
Beinhaltet:
Häufigkeitsverteilungen der Merkmalsausprägungen erste statistische Kennwerte |
|
Fehler- und Plausibilitätsprüfung
|
Erfolgt nach Speicherung der Informationen.
Hier ist mindestens zu prüfen, ob die zu den einzelnen Variablen gespeicherten Werte innerhalb des Wertebereichs liegen, der vorgesehen ist, damit wenigstens eklatante Antwort- oder Eingabefehler aufgedeckt und behoben werden können. |
|
Codierung
|
Ein Prozess der Informationstransformation, ist zum Teil mit einem Verlust an Detailinformation verbunden (vor allem bei "offenen" Antworten).
Eine eindeutige Zuordnung von Symbolen (i.d.R. Zahlen) zu bestimmten Merkmalsausprägungen bzw. qualitativen Informationen. |
|
Durchführung der Untersuchung
|
Erfolgt nach der Ausarbeitung des Designs.
Rekrutierung von Probanden bzw. Untersuchungsgruppen die genaue Auswahl des Untersuchungssettings Bereitstellung von räumlichen Gegenheiten und technischen Hilfsmitteln Schulung des Personals notwendige rechtliche, inhaltiche und organisatorische Vorbereitungen |
|
Analyseebene
|
Einzelne Personen
Gruppen Organisationen, z.B. Schulen oder Betriebe, aber auch ggf. nur die Gebäude |
|
Setting
|
Räumlich-organisatorische Umgebung
|
|
Treatment
|
Behandlungs- oder Interventionsmaßnahme
|
|
Design der Untersuchung (Untersuchungsplan)
|
Welche Personen sind als Adressaten bzw. Probanden der Untersuchung vorgesehen? Erfolgt eine Zufallsauswahl?
Ist ein Treatment vorgesehen und erfolgt es durch Dritte oder durch einen Versuchsleiter? In welchem Setting soll die Erhebung der Variablen und in welcher ggf. das Treatment erfolgen? Muss eine "künstliche Welt" erschaffen werden? (z.B. wie bei Milgram) In welchem Zeitraster findet die Untersuchung statt? (Ein oder mehrere Zeitpunkte?) Sind Maßnahmen zur Kontrolle von Störfakoren vorgesehen? |
|
Erhebungsinstrumente
|
standardisierter Fragebogen
psychologischer Test systematisches Beobachtungsverfahren |
|
Hypothetische Konstrukte
|
Psychologische Variablen
Diese können nicht durch einzelne Fragen oder Beobachtungen erfasst, sondern nur durch ein bestimmtes Instrumentarium adäquat gemessen werden. |
|
Zusammenhangshypothesen
|
Bei diesen wird eine positive oder negative Kovariation zwischen zwei Variablen X1 und X2 postuliert, d.h. es wird behauptet:
Je größer der Wert eines Untersuchungsobjektes in der Variable X1 sei, desto größer ist auch der Wert in der Variable X2 (bei negativem Zusammenhang: Je größer der Wert in X1, desto kleiner der Wert in X2). |
|
Unterschiedshypothesen
|
Diese Hypothesen beziehen sich auf Unterschiede in der Annahme von bestimmtem Verhalten in gleichen Situationen.
|
|
Zwei Typen von Untersuchungen
Untersuchungen des Typs 1 |
Hier kann die Entwicklung von konkreten, wissenschaftlichen Fragestellungen oder Hypothesen nur durch Anwendung von geeigneten theoretischen Modellen oder Konzepten auf einzelne Aspekte des gesamten Problems erfolgen.
|
|
Zwei Typen von Untersuchungen
Untersuchungen des Typs 2 |
Diese knüpfen an bisherige empirische Befunde und theoretische Konzepte bzw. an methodische Neuentwicklungen an, die z. B. eine genauere Überprüfung von Befunden oder Hypothesen erfordern bzw. ermöglichen.
|
|
Zwei Typen von Untersuchungen
|
Praktische Problemstellung (Typ 1)
Entwicklung und Überprüfung von Theorien (Typ 2) Die hier verwendete Unterscheidung differenziert zwischen Untersuchungen, die primär die Analyse praktischer Probleme als Ziel haben und jenen forschungsorientierten, die primär der Weiterentwicklung von Theorien und/oder Untersuchungsmethoden dienen sollen. |
|
Zwei Typen von Untersuchungen
2. Entwicklung und Überprüfung von Theorien |
Sind jene Arbeiten, die an der Entwicklung und Überprüfung von Theorien ausgerichtet sind, und die an bereits vorliegende Befunde anderer empirischer Untersuchungen und/oder an Thesen verschiedener Theorien anknüpfen.
|
|
Zwei Typen von Untersuchungen
1. Praktische Problemstellung |
Sind jene, die von einer praktischen Problemstellung ausgehend entstanden sind und durch Anwendung geeigneter theoretischer Konzepte auf einzelne Aspekte dieses Problems konkrete, praxisorientierte Fragestellungen bzw. Thesen entwickelt und untersucht haben.
|
|
Validität
|
Inwieweit misst das Instrument genau das, was es messen soll - und nicht auch anderes.
Ein schwierig zu quantifizierendes Gütekriterium. |
|
Reliabilität
|
Messgenauigkeit
|
|
Objektivität
|
Den Grundprinzipien wissensschaftlichen Arbeitens entsprechend sollen die Ergebnisse eines Messverfahrens von der Person, die die Messung durchführt, unabhängig sein.
|
|
Güterkriterien von Messverfahren
|
Objektivität
Reliabilität Validität |
|
Skalentypen
|
qualitativ, nominal
Beispiele: Berufe, Geschlecht erlaubte numerische Operation: x1 = x2 komparativ, ordinal Beispiele: Bogardus-Skala sozialer Distanz, Schulnoten erlaubte numerische Operation: x1 < x2 < x3 intervall Beispiele: IQ-Skala, Celsius-Skala erlaubte numerische Operation: x1 - x2 = x2 - x3 absolut, proportional Beispiele: Häufigkeiten (absolut, relativ), Alter, Kelvin-Skala erlaubte numerische Operation: x1 / x2 = x2 / x3 |
|
Bedeutsamkeitsproblem
|
Beinhaltet die Fragestellung, welche numerischen Operationen zulässig sind, ohne das die Eindeutigkeit verloren geht.
Diese Frage betrifft das sogenannte Skalenniveau der Messwerte, wobei das Skalenniveau Auskunft über die numerischen Operationen gibt, die bei den Messwerten zulässig sind, weil durch diese Operationen die interpretierbaren Relationen zwischen den Messwerten nicht verändert werden. |
|
Repräsentationsproblem
|
Beinhaltet die Grundfrage jedes Messvorgangs.
Können relevante empirische Relationen zwischen den Merkmalsausprägungen verschiedener Untersuchungsobjekte erfasst und in Messwerten "abgebildet" werden? |
|
Eindeutigkeitsproblem
|
Beinhaltet Fragen zur Qualität der Messung.
Inwieweit sind die empirischen Relationen zwischen den Merkmalsausprägungen eindeutig in den Relationen zwischen den Messwerten abgebildet? |
|
Messen
Definition nach Wolf (1994) |
Messen besteht in der Zuordnung von Zahlen zu den Merkmalsausprägungen von Objekten, wobei den mathematischen Beziehungen zwischen den Zahlen analoge empirische Beziehungen zwischen den Objekten entsprechen.
|
|
Skala Sozialer Distanz (Bogardus, 1925)
|
Die soziale Distanz erfasst Bogardus in 7 Stufen, die eine Dimension der Akzeptanz (vs. Ablehnung) von Mitgliedern einer anderen Gruppe bilden.
Die soziale Distanz zu einer bestimmten Gruppe wird weitgehend durch die gewünschte räumliche und/oder soziale Distanz operationalisiert. |
|
HAWIE
|
Hamburg-Wechsler-Intelligenztest für Erwachsene
Beinhaltet 2 Hauptteile und 11 Untertests. |
|
Datenerhebung im Internet - Probleme und Nachteile
|
höhere Abbruchquoten
oft nur partiell ausgefüllte Bögen wiederholte Teilnahme durch dieselbe Person |
|
Datenerhebung im Internet - Vorteile
Repräsentativität und Diversität |
Internet-Stichproben sind im Hinbick auf soziodemografische Variablen wie Alter, Geschlecht und Berufsstand wesentlich diverser, umfangreicher und damit tendenziell auch repräsentativer als die in der Psychologie üblichen Studierenden-Fragebögen.
Internetstudien sind gut vergleichbar mit Studien, die auf traditionellen Methoden basieren. |
|
Datenerhebung im Internet - Vorteile
Ökonomie |
Kosten für Druck, Kopien oder u.U. postalische Versendung der Fragebögen und der Aufwand für die Lagerung entfallen bei Online-Fragebögen.
Auch sind die Bögen direkt in dem Medium gespeichert, in welchem die Auswertung stattfindet, es muss also keine Übertragung erfolgen. |
|
Datenerhebung im Internet - Vorteile
Dokumentisierbarkeit als medieninhärentes Merkmal |
Daten können nicht nur gespeichert, sondern auch im Hinblick auf Teilnahmezeitpunkt, Teilnahmedauer und andere Variablen dokumentiert werden.
|
|
Datenerhebung im Internet - Vorteile
Objektivität |
Sowohl die Durchführung als auch die Auswertung sind von möglichen Verzerrungen und Fehlern, die durch den Versuchsleiter entstehen können, unabhängig und damit objektiv im Sinne der klassischen Testtheorie.
|
|
Datenerhebung im Internet - Vorteile
Automatisierbarkeit |
Sowohl die Durchführung als auch in einem gewissen Grad die Auswertung kann automatisiert werden.
Einfache Statistiken können ebenfalls automatisiert werden. |
|
Datenerhebung im Internet - Vorteile
Flexibilität |
Es können multimediale Elemente eingesetzt werden.
Aufgrund der computergestützten Automatisierbarkeit können auch sogenannte adaptive Tests durchgeführt werden. |
|
Datenerhebung im Internet - Vorteile
Asynchronizität und Alokalität |
Internetbasierte Daten können unabhängig von Zeit und Raum erhoben werden.
|
|
Datenerhebung im Internet - Vorteile
|
Asynchronizität
Alokalität Flexibilität Automatisierbarkeit ObjektivitätDokumentierbarkeit als medieninhärentes Merkmal Ökonomie Repräsentativität und Diversität |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
10. Psychophsyiologische Diagnostik |
Diese betreffen solche im weiten Sinne körperlich-organismischen Veränderungen und werden mit Hilfe
elektropsysiologischer Registriermethoden elektrodermale Aktivität, Herz-Kreislauf-Aktivität, Muskelaktivität, Hirnaktivität biochemischer Messgrößen Hormonspiegel im blut, immunbiologische Analyse des Speichels, Messung der regionalen zerebralen Durchblutung oder des regionalen zerebralen Stoffwechsels erfasst. |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
9. Fragebogen |
Ein Fragebogen ist ein Erhebungsinstrument, bei dem festgelegte Antwortmöglichkeiten auf klar vorgegebene Fragen oder Feststellungen angekreuzt werden. (Mummendey, 2003)
Hier ist keine offene Beantwortung vorgesehen wie ein einem Interview. Die am häufigsten eingesetzte Methode zur Erfassung von Persönlichkeitsmerkmalen sowie Motivations- sowie Interessensvariablen. |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
8. Objektive Tests |
Pawlik bezeichnet objektive Tests als anTestgütekriterien überprüfte Stichproben, z.B. von Leistungsaufgaben, über die eine Verhaltensstichprobe der untersuchten Person im interessierenden Merkmal erhoben und ausgewertet wird.
|
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
7. Projektive Tests |
Diese geben mehrdeutiges Reizmaterial vor (z.B. abstrakte Klecksbilder, mehrdeutige Bilder von Personen, frei gestaltetes Spielmaterila), welches von den Probanden bearbeitet, d.h. interpretiert, ergänzt oder gestaltet werden soll.
Im Kontext der Psychoanalyse entstanden, um Abwehrmechanismen zu umgehen und Zugang zu wichtigen psychologischen Informationen (z.B. Konflikte, Impulse) zu ermöglichen, welche unbewusst sind. Umstritten, da Gütekriterien meistens nicht gegeben sind. |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
6. Interview |
Ein Interview ist eine zielgerichtete mündliche Kommunikation zwischen einem oder mehreren Befragern und einem oder mehreren Befragten, wobei eine Informationssammlung über das Verhalten und Erleben der zu befragenden Person(en) im Vordergrund steht. (Kessler, 1999)
Das in der psychologischen Berufspraxis am häufigstens eingesetzte Instrument. Neben der standardisierten Beobachtung gilt das Interview als zweiter traditioneller Königsweg zumindest innerhalb der psychologischen Diagnostik. |
|
FACS
|
Facial Action Coding System (Ekman & Friesen, 1976)
Hier sind mehrere sogenannte Action Units (AUs) definiert. Es handelt sich dabei um kleinste, gerade noch sichtbare mimische Veränderungen bzw. Bewegungseinheiten, z.B. Heben der Augenbraue innen (AU1) Runzeln der Kinnhaut (AU17) Zusammenpressen der Lippen (AU23), welche zunächst objektiv betrachtet werden. Erst in einem zweiten Schritt werden die Action Units mit Hilfe eines Auswertungsprogramms bestimmten Emotionen zugeordnet. |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
5. Ausdrucksverhalten |
Könnte auch der Verhaltensbeobachtung oder -beurteilung zugerodnet werden.
Ausdrucksverhalten umfasst u.a.: Mimik Stimme und Sprechweise Ganzkörpermotorik Handschrift |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
4. Verhaltensbeurteilung |
Betrifft mehr oder weniger subjektive und summarische Einschätzungen und Bewertungen der Häufigkeit, Intensität und Ausprägungsform des eigenen Verhaltens oder des Verhaltens anderer Personen.
Wenn eine Person ihr Verhalten (oder das Verhalten anderer Personen) einschätzt, dann tut sie dies auf der Basis mentaler Repräsentationen des zumeist bereits vergangenen Verhaltens. |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
3. Verhaltensbeobachtung |
Wissenschaftliche Verhaltensbeobachtung ist im Gegensatz zur Alltagsbeobachtung
methodisch kontrolliert und systematisiert muss sich an bestimmten Gütekriterien messen lassen und ist zumeist mit einer quantitativ-statistischen Analyse der protokollierten Verhaltensdaten verbunden. |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
2. Verhaltensspuren |
Diese sind direkt beobachtbare Nachwirkungen (Produkte) menschlichen Verhaltens.
Psychologisch interessant ist, dass Verhaltensspuren mit Persönlichkeitsmerkmalen assoziiert sein können. |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
1. Biografische und Aktuardaten |
sozio-demografische Daten wie Alter, Geschlecht, Familienstand, welche reaktionsobjektiv erfasst werden können
objektive Daten wie Daten zur Lebensgeschichte, Schul- und Berufsbildung oder Krankengeschichte Können mit einem speziellen biografischen Fragebogen erhoben werden. |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
(Alle 10) |
Biographische und Aktuardaten
Verhaltensspuren Verhaltensbeobachtung Verhaltensbeurteilung Ausdrucksverhalten Interview Projektive Tests Objektive Tests Fragebogen Psychophsyiologische Diagnostik |
|
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
3 Kriterien zur Klassifikation von Datenquellen |
Datenmodalität
erfassbare varianz Reaktionsobjektivität |
|
Komparationsforschung
Qualitative und quantitative Typenbildung |
Um Werte zu quantifizieren, eignen sich hier statistische Methoden, z.B. die Cluster-Analyse, welche Typen bildet und Einzelfälle zu Typen zusammen fasst.
|
|
Komparationsforschung
Ziel |
Bildung von z.B. Persönlichkeits-Typen, die durch ähnliche Merkmalsprofile oder Funktionsprinzipien gekennzeichnet sind
|
|
Komparationsforschung
Vergleich |
Vergleich von Einzelfällen vor dem Hintergrund der interessierenden Merkmale und Funktionsprinzipien.
Merkmale können die Big Five sein, Funktionsprinzipien können Zusammenhänge sein, die bei bestimmten Personen bestehen. |
|
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen Komparationsforschung |
Hier werden zwei oder mehrere Merkmale an vielen Individuen untersucht.
z.B. der Vergleich von Goethe und Schiller oder der Vergleich von Studierenden unterschiedlicher Studienfächer. |
|
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen Psychographie |
Hier werden viele Merkmale an einer Person untersucht. Die Psychographie ist laut Stern nur eine Vorstufe, um Individualität bzw. Einzigartigkeit zu untersuchen.
Psychologische Analyse einer Person, z.B. Goethe oder eines Schulkindes. |
|
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen Korrelationsforschung |
Hier wird der Zusammenhang zwischen zwei oder mehreren Merkmalen an vielen Individuen festgestellt.
Gibt es einen Zusammenhang zwischen Intelligenz und Studienerfolg oder zwischen Extraversion und Gesundheit? |
|
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen Variationsforschung |
Hier wird ein Merkmal an vielen Individuen erfasst.
Wie variiert Intelligenz unter den Studierenden einer Uni? |
|
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen |
Variationsforschung
Korrelationsforschung Psychographie Komparationsforschung |
|
Einzelfallstudie im qualitativen Paradigma
Der Forschungsprozess |
Populationsauswahl
Je nach Fragestellung Auswahl von möglichst extrem gegensätzlichen oder ähnlichen Einzelfällen, wenn gleichartige oder kontrastierende Handlungsmuster identifiziert werden sollen Datenerhebung Interview, Gruppendiskussion, Beobachtung Auswertung des Materials Neue Ideen/Theorien generieren --> komparative Kasuistik: Typen, gemeinsame Merkmale der Einzelfälle und neue Hypothesen werden in einem Forschungsteam kommunikativ erarbeitet |
|
Qualitative Methodologie
Merkmal: Kommunikativität |
Alles ist sehr dialogisch, es werden Gruppendiskussionen geführt und auch bei der Validierung wird kommunikativ vorgegangen, z.B. diskutiert das Forschungsteam die Ergebnisse mit den Probanden.
|
|
Qualitative Methodologie
Merkmal: Interpretativität |
Interpretation der alltagweltlichen Deutungen und Typisierungen.
Hier nimmt man eine hermeneutische Herangehensweise und es gibt Typenbildung. Es wird versucht, aus verschiedenen Einzelfällen Gruppen zu bilden, in denen ähnliche Muster festgestellt werden könnten. |
|
Qualitative Methodologie
Merkmal: Natürliche Alltagssituation |
quantitativ: meistens nur im Labor, also in künstlicher Situation
qualitativ: hier sind natürliche Situationen gegeben --> es kann aber auch jeweils anders herum sein! |
|
Qualitative Methodologie
Merkmal: Offenheit |
Im Hinblick auf
die Theorie untersuchte Personen Erhebungssituation Weiterentwicklung hypothetischer Aussagen Auswertung |
|
Qualitative Methodologie
Einige Merkmale |
Offenheit
Kommunikativität Erhebung in natürlichen Alltagssituationen Interpretativität Es ist eine hermeneutische Herangehensweise, eine Typenbildung. Es wird versucht, aus verschiedenen Einzelfällen Gruppen zu bilden, in denen ähnliche Muster festgestellt werden könnten. |
|
Einzelfalldiagnostik
Fragestellungen |
Unterscheidet sich ein individueller Testwert von einer Vergleichs- oder Normstichprobe? z.B. ob Person A überdurchschnittlich intelligent ist.
Beispiel: IQ-Test, Ergebnis 105: Ist Person A jetzt überdurchschnittlich intelligent? Unterscheiden sich die Summenscores von zwei Probanden voneinander? z.B. ob Person A intelligenter als B ist. z.B. A 105 und B 110. Oberflächliche Schlussfolgerung: B ist intelligenter. ABER man muss den Standardmessfehler berücksichtigen, deswegen darf man nicht davon ausgehen, dass es sich um die wahren Werte handelt. Unterscheiden sich die zu verschiedenen Zeitpunkten erhobenen Summenscores einer Person voneinander? z.B. ob die Depressivität von Person C nach einer Therapie bedeutsam geringer ist als vorher. Man sollte nicht einfach von einem Testscore als wahren Wert ausgehen, sondern man muss Reliabilität, Standardmessfehler und kritische Differenzen berücksichtigen. |
|
Einzelfalldiagnostik
Ausgangspunkt |
Erfassung von Merkmalen einer Person mit standardisierten diagnostischen Instrumenten (Tests, Fragebögen)
Ausprägung auf Vergleichsdimensionen anstatt idiosynkratischer Merkmale Als Beispiel: Eine Person hat im HAWIE einen IQ von 113 erreicht. Was kann man daraus schließen? Das Problem hier: Ein individueller Test ist fehlerbehaftet, wenn die Reliabilität des zugrundeliegenden Tests unzureichend ist, da kein Test perfekt und genau misst, deswegen wäre es FALSCH: Den beobachteten Testwert mit dem wahren Wert des Probanden gleichzusetzen. Es wäre RICHTIG: Einen Unsicherheitsbereich, in dem der wahre Wert vermutet wird und ein Konfidenzintervall mit vorab festgelegter Irrtumswahrscheinlichkeit auf der Basis des Standardmessfehlers festzulegen. |
|
Retest-Korrelation
|
Diese quantifiziert, inwieweit die Rangordnung von mehreren Personen einer Stichprobe in Bezug auf ein Merkmal über die Zeit gleich bleibt oder sich verändert.
Beispiel: Extraversion zum Zeitpunkt t1 Extraversion zum Zeitpunkt t2 Personen A 10 40 B 20 30 C 30 20 D 40 10 |
|
Q-Korrelation
|
Behandelt mehrere Merkmale innerhalb einer Person und ist eine idiographische Methode der Datenanalyse.
Beispiel: Merkmale der Person A beim Zeitpunkt t1 t2 Merkmale Extraversion 10 20 Offenheit 20 40 Gewissenhaftigkeit 30 60 Verträglichkeit 40 80 |
|
Repertory Grid Technik (Kelly, 1955)
Würdigung und Kritik |
Eine Person konstruiert sich ihren eigenen idiosynkratischen Fragebogen
Normalerweise werden Fragen vom Forscher vorgegeben, wobei man nie weiß, wie relevant diese für die Vpn sind Vergleichweise hoher Aufwand: Lohnt es sich? Reicht nicht eventuell auch ein normaler Fragebogen? Nach einer Studie von Grice (2004): Gridtests liefern idiosynkratische Selbstbeschreibungsdiemnsionen, die über die nomothetischen Dimensionen (Big Five) hinausgehen Nach einer Studie von Watson und Watts (2001): Inkrementelle Validität personaler Konstrukte im Vergleich zu konventionell erfassten Persönlichkeitsmerkmalen bei der Vorhersage von emotionaler Labilität Personale Konstrukte verbessern die Vorhersage im Vergleich zu normalen Fragebögen, so dass es sich lohnen kann, die Repertory Grid Technik anzuwenden. |
|
Inkrementell
|
Bedeutet, dass eine Variable oder ein Verfahren Varianz aufklärt bei der Vorhersage über ein anderes Verfahren hinaus.
|
|
Triadenvergleich
|
Inwiefern ähneln sich zwei Elemente und unterscheiden sich einem dritten?
|
|
Dyadenvergleich
|
Wie unterscheiden sich die beiden Elemente?
|
|
Repertory Grid Technik (Kelly, 1955)
|
Idiographische Datenerhebungsmethode zur Erfassung des Konstruksystems einer Person.
Sie besteht aus insgesamt 3 Schritten: Auswahl von 15-20 Elementen (z.B Personen), die für den interessierenden Gegenstandsbereich repräsentativ und für die Vpn persönlich bedeutsam sind Erhebung der personalen Konstrukte durch Vorgabe der ausgewählten Elemente: Dyaden- oder Triadenvergleich Einschätzung der Elemente auf dem erhobenen Konstrukt |
|
Einzelfallstudien
Wann werden sie vor allem eingesetzt? |
Wenn Gruppenstudien fast unmöglich sind, z.B. in der klinischen Psychologie, wenn die Fälle zu spezifisch sind
Als "Vorstudien" zur Hypothesengenerierung und Exploration Wenn man eine Fragestellung hat und nicht genau weiß, was die wichtigen Variablen sind, dann guckt man zuerst auf Einzelfälle, um Hypothesen aufzustellen Als Operationalisierungshilfe Meint, dass man das Treatment vorher an Einzelfällen ausprobiert (meistens vertraute Personen), um Rückmeldungen zu erhalten, um dadurch die Operationalisierung des Experiments sicher zu stellen Zur Illustration, Verdeutlichung und Plausibilisierung von Befunden auf Aggregatsebene |
|
Mittelwertsfalle
|
Ungerechtfertigte und falsche "Idiographisierung" von nomothetischen Befunden/Unterschieden auf Aggregatsebene.
|
|
Korrelationsfalle
|
Ungerechtfertigte und falsche "Idiographisierung" von Befunden über Zusammenhänge auf Aggregatsebene.
Beispiel: Intelligenz korreliert positiv (z.B. r = .50) mit Studienerfolg. Nicht immer ist nur Intelligenz entscheidend für den Studienerfolg, sondern auch andere Komponenten wie Motivation, Gewissenhaftigkeit, soziale Faktoren oder Zeit, welche man hat. |
|
Idiographisierung
Ein Beispiel für eine falsche. |
John hat einen ganz bestimmten problematischen familiären Hintergrund
70% mit demselben familiären Hintergrund werden kriminell FALSCH: John wird mit 70%iger Wahrscheinlichkeit kriminell Nicht nur diese eine Variable (familiärer Hintergrund) ist ausschlaggebend, sondern es ist ein Durchschnittswert, andere Sachen entscheiden auch mit. |
|
Strukturgleichungsmodell
|
Dieses umfasst ein Messmodell und ein Strukturmodell.
Das Messmodell spezifiziert die Beziehungen zwischen den beobachteten Variablen und den hypothetischen Konstrukten. Das Strukturmodell beschreibt die Zusammenhänge zwischen den theoretischen Konstrukten. Ein Strukturgleichungsmodell ist also ein Pfadmodell, welches ein Messmodell enthält. |
|
Pfadmodell
|
Dieser Begriff wird weiter gefasst als die Pfadanalyse und schließt grafische Darstellungen von Strukturgleichungsmodellen (oder gar Faktorenanalysen) mit ein.
|
|
Pfadanalyse
|
Diese basiert lediglich auf manifesten Variablen, weil in dieses statistische Verfahren - als mehrfache Regressionsanalyse - kein Modell zur Messung von latenten Variablen integriert bzw. integrierbar ist.
|
|
Indirekte Effekte
|
Dies sind Zusammenhänge zwischen zwei Variablen, die von einer oder mehreren anderen Variablen mediiert werden.
|
|
Direkte Effekte
|
Dies sind unvermittelte (d.h. unmittelbare) Zusammenhänge zwischen einer unabhängigen und einer abhängigen Variable.
|
|
cross-lagged-panel design
|
Hier werden mindestens 2 Variablen zu 2 verschiedenen Messpunkten erhoben.
Es lassen sich zwei verschiedene synchrone Korrelationen, zwei Autokorrelationen und zwei zeitverzögerte Kreuzkorrelationen berechnen. |
|
Konfirmatorische Faktorenanalyse
|
Hier wird die Hypothese geprüft, dass eine bestimmte Faktorenstruktur auch in weiteren Stichproben mit den gegebenen Variablen/Items gilt bzw. zutrifft.
|
|
Faktor
|
Ausgehend von den Korrelationen zwischen gemessenen Variablen wird eine synthetische, latente Variable konstruiert, die mit allen Variablen so hoch wie möglich korreliert: Der Faktor.
|
|
Markiervariablen
|
Das sind diejenigen Items, die am höchsten auf einem Faktor laden.
Sie werden zur Interpretation des Faktors herangezogen, also um inhaltlich auszudrücken, was ein Faktor erfasst. |
|
Ladungen
|
Bestimmte Indexzahlen, die angeben, wie gut eine Variable zu einer Variablengruppe bzw. zu einem Faktor passt.
Vereinfacht: Sie sind die Korrelationen einer einzelnen Variable (Items) mit einem Faktor. |
|
Reliabilitäts-Validitäts-Dilemma
|
Werden Merkmale sehr ungenau gemessen, dann kann es sein, dass sie nur sehr niedrig oder gar nicht interkorrelieren, obwohl ein Zusammenhang besteht, der bei höherer Messgenauigkeit aufgedeckt werden könnte.
Allerdings kann die anschließende Orientierung an der Optimierung der Messgenauigkeit zu einer zu starken Homogenisierung eines Messinstruments führen. Es wird dann nur ein sehr schmaler Merkmalsbereich erfasst und die Korrelation mit anderen Variablen fallen dann auch wieder niedriger aus. |
|
Aggregationsprinzip
|
Nach diesem liefert die Summe mehrerer (miteinander korrelierender) Messungen eine stabilere und repräsentativere Schätzung eines Merkmals als eine einzelne Messung.
|
|
Informationsreduktion
Vorteile |
Wenige Dimensionen können leichter weiterverarbeitet und kommuniziert werden
Aggregationsprinzip |
|
Explorative Faktorenanalyse
|
Die hiermit verbundene Hypothese ist, dass sich die wechselseitigen Zusammenhänge vieler beobachteter bzw. gemessener Variablen durch wenige, in der Regel voneinander unabhängige Faktoren bzw. Dimensionen erklären lassen.
Um festzustellen zu können, was "irgendwie das gleiche" ist, was gemessen werden soll anhand von Items, die dieses aussagen, ist die explorative Faktorenanalyse indiziert. |
|
Explorative Faktorenanalyse
|
Die hiermit verbundene Hypothese ist, dass sich die wechselseitigen Zusammenhänge vieler beobachteter bzw. gemessener Variablen durch wenige, in der Regel voneinander unabhängige Faktoren bzw. Dimensionen erklären lassen.
Um festzustellen zu können, was "irgendwie das gleiche" ist, was gemessen werden soll anhand von Itmes, die dieses aussagen, ist die explorative Faktorenanalyse indiziert. |
|
Mediatorhypothese
3 Regressionsgleichungen, um die Bedingungen für die Mediatorhypothese zu prüfen |
Regression des Mediators auf den Prädiktor
Regression des Kriteriums auf den Prädiktor Regression des Kriteriums auf den Prädiktor und den Mediator Mediation liegt vor, wenn der Effekt des Prädiktors auf das Kriterium in Gleichung 3 geringer ist als in Gleichung 2. Bei vollständiger Mediation ist der Effekt des Prädiktors in Gleichung 3 Null. |
|
Mediatorhypothese
3 Bedingungen, damit sie angenommen werden kann |
Der Prädiktor ist mit dem angenommenen Mediator korreliert
Der potenzielle Mediator ist mit dem Kriterium korreliert Wenn die Zusammenhänge zwischen "Prädiktor --> Mediator" und "Mediator --> Kriterium" kontrolliert werden, verringert sich die Korrelation zwischen Prädiktor und Kriterium und wird bei vollständiger Mediation Null. |
|
Mediator-Variable
|
Erklärt den Prozess oder "Mechanismus", durch den eine Prädiktorvariable eine Kriteriumsvariable "beeinflusst".
Anders ausgedrückt ist ein Mediator eine Variable, die erklärt, warum ein Zusammenhang zwischen zwei anderen Variablen besteht. Durch die Mediation wird der Zusammenhang zwischen Prädiktor und Kriterium erklärt. |
|
Moderator-Effekt
|
Liegt vor, wenn die Beziehung wischen zwei Variablen von der Ausprägung einer dritten Variable abhängt.
|
|
Moderator
|
Variable, welche die Richtung und/oder die Enge des Zusammenhangs zwischen einer Prädiktor- und einer Kriteriumsvariable beeinflusst.
Entweder ist sie qualitativ: z.B. Geschlecht oder quantitativ: z.B. Ausprägungen von Persönlichkeitsmerkmalen |
|
Suppressor
|
Hierbei handelt es sich um eine Prädiktorvariable, die den Vorhersagebeitrag einer oder mehrerer anderer Variablen erhöht, indem sie für die Vorhersage irrelevante Varianzanteile unterdrückt.
|
|
Multiple Regression
Vorteile |
Es können aus einer Vielzahl von Prädiktoren diejenigen bestimmt werden, die zur Vorhersage des Kriteriums einen substantiellen Beitrag leisten.
Es lassen sich Prädiktoren identifizieren, die im Kontext der multiplen Vorhersage redundant (d.h. mehrfach vorhanden) sind, obwohl sie eine bivariate Korrelation mit dem Kriterium aufweisen. |
|
Multiple Regressionsrechnung
|
Das Ergebnis ist eine Gleichung zur Vorhersage der Kriteriumswerte und der multiple Korrelationskoeffizient, der den Zusammenhang zwischen den vorhergesagten und den tatsächlichen Kriteriumswerten quantifiziert.
|
|
Prädiktoren und Kriterien
Welche Unterscheidung entspricht der Unterscheidung zwischen diesen beiden? |
Die Unterscheidung zwischen unabhängigen und abhängigen Variablen im Experiment.
|
|
Kriterien
|
Wenn der Zusammenhang zwischen mehreren Merkmalen zu einem oder mehreren weiteren Merkmal(en) untersucht werden soll, dann wird formal zwischen Prädiktoren, also Vorhersage-Variablen, und Kriterien, die vorhergesagt werden sollen, unterschieden.
|
|
Prädiktor
|
Vorhersage-Variable
|
|
Ipsativ-differentielle Stabilität
Was bedeuten hier ipsativ und differentiell? |
ipsativ: weil es um eine Person geht
differentiell: weil das "Verharren" von Profilmerkmalen auf denselben Positionen über die Zeit bestimmt wird |
|
Idiografische Variante
|
Hier wird über mehrere Merkmale innerhalb einer Person korreliert.
Also um die Stabilität bzw. Veränderung innerhalb eines individuellen Variablen-Profils. |
|
Nomothetischer Anwendungsfall
|
Es wird festgestellt, ob die Rangordnung von mehreren Personen einer Stichprobe in Bezug auf ein Merkmal über die Zeit gleich bleibt oder sich verändert.
|
|
Differentielle Stabilität
|
Die zeitliche Stabilität interindividueller Unterschiede.
Also das "Verharren" von Personen auf denselben relativen Positionen innerhalb einer Gruppe über die Zeit. |
|
Längsschnittdesign
|
In einem bivariaten Fall würde ein und dasselbe Merkmal bei allen Personen einer Stichprobe zu zwei verschiedenen Messpunkten erhoben werden.
Kommt vor allem in der Differentiellen Psychologie und Persönlichkeitsforschung zum Einsatz, wenn die zeitliche Stabilität von Eigenschaften ermittelt werden soll. |
|
Korrelatives Querschnittdesign
|
Die Erhebung der Merkmalsausprägungen erfolgt nur zu einem bestimmten Zeitpunkt.
|
|
Korrelationskoeffizient
|
Kann Werte zwischen +1 und -1 annehmen.
Wert +/- .10 = schwacher Zusammenhang Wert +/- .30 = mittlerer Zusammenhang Wert +/- .50 = starker Zusammenhang (nicht perfekt, aber in der Psychologie stark) Wird genau +1 oder -1 ermittelt, dann liegt ein perfekter linearer und damit nicht mehr stochastischer, sondern deterministischer Zusammenhang vor. Derart hohe Korrelationen kommen empirisch in der Psychologie aus verschiedenen Gründen so gut wier nie vor, da Erleben und Verhalten immer mit multiplen Bedingungen assoziiert ist, die zudem in Wechselwirkung treten können. |
|
Zusammenhänge
Welche drei Arten eines Zusammenhangs gibt es? |
Art des Zusammenhangs: linear oder nicht-linear
Richtung des Zusammenhangs: positiv oder negativ Enge des Zusammenhangs: Wert zwischen +1 und -1 des Korrelationskoeffizienten |
|
Zusammenhänge
Welche drei Arten eines Zusammenhangs gibt es? |
Art des Zusammenhangs: linear oder nicht-linear
Richtung des Zusammenhangs: positiv oder negativ Enge des Zusammenhangs: Wert zwischen +1 und -1 des Korrelationskoeffizienten |
|
Nicht-linearer Zusammenhang
|
Beispiel:
Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche? Ein nicht-linearer Zusammenhang würde hier vorliegen, wenn die durchschnittliche Internetnutzungszeit bis zu einem bestimmten Alter abnimmt, im höheren Erwachsenenalter dann aber wieder zunimmt. |
|
Linearer Zusammenhang
|
Ein positiver oder negativer linearer Zusammenhang ist der Fall, wenn hohe Ausprägungen des einen Merkmals mit hohen bzw. niedrigen Ausprägungen des anderen Merkmals assoziiert sind.
Beispiel: Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche? z.B. negativ: Je höher das Alter, desto niedriger die durchschnittliche Internetnutzungszeit. |
|
Gerichtete Zusammenhangshypothesen
|
Diese nehmen eine Assoziation zwischen zwei Merkmalen an und spezifizieren die Richtung der Assoziation, ob sie positiv oder negativ ist.
Beispiel: Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche? Folgerung: Das Alter hängt negativ mit der durchschnittlichen Internetnutzungszeit zusammen oder anders formuliert --> Höheres Alter geht mit niedriger Internetnutzung einher! |
|
Ungerichtete Zusammenhangshypothese
|
Ungerichtete Zusammenhangshypothesen nehmen lediglich eine Assoziation zwischen zwei Merkmalen an und spezifizieren nicht, ob es sich dabei um einen negativen oder positiven Fall handelt.
Beispiel: Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche? Folgerung: Alter und Internetnutzung hängen zusammen! |
|
Bivariate Zusammenhangshypothesen
|
Diese betreffen vermutete Assoziationen zwischen zwei Merkmalen.
Beispiel: Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche? |
|
Verfahren zur Analyse von Zusammenhängen
Vor- und Nachteil gegenüber experimentellen Designs |
Vorteil:
Es können Zusammenhänge zwischen vielen Variablen untersucht werden Nachteil: Korrelative Zusammenhänge dürfen nicht kausal interpretiert werden |
|
Korrelationsforschung
Was wird untersucht? |
Der Zusammenhang zwischen zwei oder mehreren Merkmalen.
Es geht hier um Zusammenhänge zwischen bereits existierenden Variationen zwischen Merkmalen von Individuen, sozialen Gruppen oder anderen interessierenden Merkmalsträgern. |
|
Evaluationsforschung
Warum werden Standards entwickelt? 2 Gründe |
Die Entwicklung solcher Standards ist
Ausdruck fachlicher und politischer Auseinandersetzungen, die insbesondere im Kontext der Evaluation bildungs- und sozialpolitischer Reformprogramme stattgefunden haben, und die dem Image dieser Art sozialwissenschaftlicher Politikberatung erheblich geschadet haben und Ausdruck der Bemühungen der Markt- und Meinungsforschungsinstitute um die Definition von Mindeststandards, die den Auftraggebern Nützlichkeit und Qualität von Umfragen und Evaluationen garantieren sollen. |
|
Evaluationsforschung
Standards der APA Nenne die 4 Dimensionen |
Nützlichkeit
Durchführbarkeit Fairness Genauigkeit |
|
Evaluationsforschung
Dilemmata (Patry & Hager, 2000) 3. Dilemma der Allgemeinheit vs. Konkretheit |
Dieses methodologische Dilemma betrifft sowohl die Konzeption als auch die Evaluation einer Interventionsmaßnahme:
Je abstrakter die Formulierung ist, desto weiter kann der potentielle Anwendungsbereich einer Interventionsmaßnahme angesehen werden, wobei sich allerdings bei jeder Anwendung die Frage stellt, in welcher Form man die abstrakten Handlungsanweisungen konkretisiert bzw. operationalisiert. Auf der anderen Seite weisen sehr konkret gehaltene Handlungsanweisungen den Nachteil auf, dass das Programm nur unter ganz bestimmten Randbedingungen anwendbar ist, nämlich denen, für die die konkreten Handlungsanweisungen gedacht sind. |
|
Evaluationsforschung
Dilemmata (Patry & Hager, 2000) 2. Dilemma der Wissenschaftlichkeit |
Das Ziel wissenschaftlicher Evaluationsversuche kann auf einer abstrakten Ebene also darin gesehen werden, vor und während eines Versuchs die Wahrscheinlichkeit zu maximieren, dass
eine zutreffende Hypothese sich bewähren kann und dass eine nicht-zutreffende Hypothese sich nicht bewähren kann - also falsifiziert werden kann. Folgerung: Jede Evaluation muss systematisch geplant und dokumentiert werden - insbesondere das Treatment sowie die Vielzahl der Bedingungen, unter denen die Evaluation stattgefunden hat, die eventuellen zwischenzeitlichen Ereignisse und die Eigenschaften der Durchführenden. |
|
Evaluationsforschung
Dilemmata (Patry & Hager, 2000) 1. Auswahl-Dilemma |
"Welche Programme sollen angesichts der limitierten Mittel evaluiert werden?"
Dabei kann es aus Sicht wissenschaftlicher Beratung andere Kriterien für die Auwahl geben als aus Sicht der Praxis. |
|
Evaluationsforschung
Dilemmata (Patry & Hager, 2000) |
Auswahl-Dilemma
Dilemma der Wissenschaftlichkeit Dilemma der Allgemeinheit vs. Konkretheit |
|
Zeitreihenanordnung
Einfache und mehrfache |
Besteht diese nur aus der Versuchsgruppe, wird das Design als einfache Zeitreihenanordnung bezeichnet, sonst als mehrfache.
|
|
Zeitreihenanordnung
|
Hier wird der Effekt des Treatments nicht primär über den Gruppenvergleich bestimmt, sondern durch Vergleich des - über mehrere Messzeitpunkte bestimmten - durchschnittlichen Wertes der abhängigen Variable bei der Person i vor dem Treatment mit dem durchschnittlichen Wert derselben Person nach dem Treatment.
|
|
Zeitreihenanalyse
|
Bezeichnet eine Gruppe statistischer Verfahren, die zur Auswertung von vielfach wiederholten Messungen (n>9) angewendet werden.
Im Fokus stehen die intraindividuellen Schwankungen der Messwerte, die bei wiederholten Messungen von Variablen bei den einzelnen Probanden bestimmt werden können. |
|
Evaluationsforschung
Warum ist sie ein wichtiges Anwendungsgebiet quasi-experimenteller Anordnungen? |
Der Bereich der Evaluation ist ein wichtiger beruflicher Handlungsbereich für Psychologen
Der Konzeption und Evaluation von Interventionsmaßnahmen kommt eine hohe Verantwortung zu, da hier oftmals viele Personen von betroffen sein können |
|
Evaluationsforschung
Typische Fragestellungen psychologischer Evaluationsforschung |
Welche generellen und welche differentiellen Effekte hat die Maßnahme X bei den teilnehmenden Personen bzw. Gruppen?
Welche Effekte hat die Maßnahme X für den Betrieb bzw. die Institution, in der die Untersuchung durchgeführt wird? Welche Personen nehmen freiwillig an der Maßnahme X teil? |
|
Evaluationsforschung
|
Diese untersucht Zusammenhänge zwischen bestimmten Maßnahmen und erwarteten Effekten.
Sie setzt also voraus, dass Maßnahmen durchgeführt worden sind, die zur Veränderung von Organisationsstrukturen oder -abläufen, zur Schulung oder anderweitigen Beeinflussungen von Personen oder zur Einführung neuer technischer Systeme im Alltag dienen sollen. |
|
Evaluation
|
Ist jede systematische Beurteilung eines Objekts oder Vorgangs, insbesondere jede Qualitätsbeurteilung.
Beispiele: im technischen Bereich: die Prüfung der Abgaswerte bei Autos oder Heizungen im sozialen Bereich: eine Umfrage zur Kundenzufriedenheit in einem Hotel, Krankenhaus oder Urlaubsort im wirtschaftlichen Bereich: z.B. die Bilanz der jährlichen Umsätze und Neukunden von Handelsvertretern |
|
Quasi-experimentelles Design
Verletzungen von drei Bedingungen eines echten Experiments. Welche? |
Folgende Bedingungen werden verletzt:
Randomisierung der Probanden Manipulation einer unabhängigen Variable bzw. Durchführung von Interventionsmaßnahmen Weitgehende Kontrolle der Versuchsbedingungen |
|
Quasi-experimentelles Design
Charakteristika |
Die Zielgruppe des Treatments wird in vielen Fällen von der auftraggebenden Institution festgelegt.
Das Treatment ist meist komplex, d.h. es besteht aus mehreren Komponenten und dauert über eine längere Zeitspanne hinweg. Untersuchungen werden stets im "Feld" durchgeführt. |
|
Vollständig ausbalanciertes Design
Welche Effekte können bestimmt werden? |
Wenn alle möglichen Abfolgen der Treatments berücksichtigt werden (vollständig ausbalanciert), können folgende Effekte bestimmt werden:
die Haupteffekte jedes Treatments die Haupteffekte jeder Person (durchschnittliche Abweichung vom Gesamtmittelwert) Effekte der Reihenfolge bzw. Platzierung von Treatments (Interaktionseffekt von Treatment und Position) |
|
Cross-Over-Design
|
Es werden alle Treatments - in verschiedener Reihenfolge - an allen Probanden durchgeführt.
|
|
Untersuchung der Effekte mehrerer verschiedener Maßnahmen bzw. Treatments
2 Möglichkeiten |
Es werden ebenso viele Untersuchungsgruppen gebildet, wie Maßnahmen vorgegeben sind.
Es werden alle Treatments - in verschiedener Reihenfolge - an allen Probanden durchgeführt. |
|
carry-over-effects
|
Wenn keine Folgeeffekte des Treatments auf die Durchführung und Effekte des nachfolgenden Treatments zu erwarten sind.
|
|
Lateinisches Quadrat
|
Ein Design, welches die folgenden drei Bedingungen mit genau m verschiedenen Untersuchungsgruppen erfüllt:
jedes Treatment muss einmal jede von m möglichen Positionen einnehmen jedes Treatment muss einmal jedem anderen Treatment vorangehen jedes Treatment muss einmal jedem anderen Treatment folgen Jeder Anordnung werden per Randomisierung gleichviele Probanden zugeteilt. |
|
ex-post-facto-Untersuchung
|
Wenn die Untersuchung von Effekten erst nach der Durchführung eines oder mehrerer Treatments geplant wird, und somit keinerlei Kontrolle von Störfaktoren erfolgt, sondern nur die Durchführung eines Nachtest.
|
|
Störfaktor Typ 2
|
Bezeichnung: Experimenteller Dropout
Erläuterung: Ausfall von Probanden während der Untersuchung (--> allgemein die externe und gruppenspezifisch die interne Validität) Beispiel: Insbesondere bei mehrtägigen bzw. Langzeituntersuchungen |
|
Störfaktor Typ 3
|
Bezeichung: Testeffekte
Erläuterung: Einflüsse des Vortests auf das Verhalten während des Experiments oder beim Nachtest Beispiel: Vortest als "advance organizer" bei Lehr-Lern-Untersuchungen Trainingseffekte wiederholter Tests ("Testsophistikation") |
|
Störfaktor Typ 4
|
Bezeichnung: Veränderung der verwendeten Hilfsmittel
Erläuterung: Geringe zeitliche Stabilität der Geräte, Beobachter, Auswerter und/oder Testverfahren, die eingesetzt werden Durch Wechsel der Messverfahren (zwischen Vor- und Nachtest) Beispiel: Verschleiß von Messgeräten Veränderung der Handhabung von Kategorien bei Beobachtungen bzw. Testauswertungen Unterschiede zwischen verschiedenen Methoden |
|
Störfaktor Typ 5
|
Bezeichnung: Reaktive Effekte in der Untersuchung
Erläuterung: Bewusstsein der Teilnahme an einer Untersuchung (--> interne Validität) Beispiel: Placebo- oder Hawthorne-Effekt |
|
Störfaktor Typ 6
|
Bezeichnung: Zwischenzeitliches Geschehen
Erläuterung: Einflüsse von außen während des gesamten Untersuchungszeitraumes t auf die abhängige Variable (z.B. Einstellung) Beispiel: Ergebnisse auf politischer oder institutioneller Ebene (z.B. Streik, Entlassungen, Gewaltverbrechen) |
|
Störfaktor Typ 7
|
Bezeichnung: "Natürliche" Änderungsprozesse
Erläuterung: Biologisch oder physiologisch bedingte Veränderungen, die im gesamten Untersuchungszeitraum t aller Untersuchungsgruppen auftreten Beispiel: Konzentrationsverlust bei monotoner Arbeit, Hunger oder Anstrengung Individuelle Entwicklung insbesondere bei Kindern und älteren Menschen |
|
Störfaktor Typ 8
|
Bezeichnung: Statistische Regression
Erläuterung: Statistisch zu erwartende Änderung des individuellen Messwertes durch die sogenannte "Regression zum Mittelwert" Beispiel: Insbesondere bei der Verwendung von Extremgruppen |
|
Störfaktor Typ 1
|
Bezeichnung: Auswahlverfahren der Untersuchung
Erläuterung: Auswahl der Probanden, die an der Untersuchung teilnehmen (--> externe Validität) Aufteilung auf Versuchs- und Kontrollgruppe (--> interne Validität) Beispiel: Freiwilligkeit garantiert nicht Repräsentativität der Probanden Falls Konfundierung mit Treatment: Randomisierung oder Parallelisierung, ggf. Vortest durchführen |
|
Externe Validität
Verallgemeinbarkeit bzgl. Personen: Wann ist sie gerechtfertigt? |
Für den Fall, dass die Personen als Zufallsstichprobe gewählt wurden, kann nach den Regeln der Wahrscheinlichkeitstheorie bei hinreichend großer Stichprobe eine Generalisierbarkeit von der Stichprobe auf die Grundgesamtheit gerechtfertigt werden.
|
|
Externe Validität
|
Als Externe Validität wird die Generalisierbarkeit der Untersuchungsergebnisse bezeichnet.
Drei Aspekte der Verallgemeinbarkeit: bzgl. Personen: Sind die Ergebnisse auf eine Art von "Grundgesamtheit" von Personen übertragbar? bzgl. Treatments: Sind die Ergebnisse auf ähnliche Treatments übertragbar? bzgl. der realisierten Untersuchungsbedingungen: Sind die Ergebnisse auf ähnliche Situationen übertragbar? |
|
Interne Validität
|
Eine experimentelle Untersuchung gilt als intern valide
wenn die kausale Interpretation ihrer Ergebnisse inhaltlich eindeutig ist wenn also ein aufgetretener Effekt (als Unterschied im Wert der abhängigen Variable) zwischen der Versuchs- und Kontrollgruppe eindeutig nur auf das Treatment zurückgeführt werden kann und der Einfluss von Drittvariablen kontrolliert oder ausgeschaltet wurde. |
|
Dokumentation
|
Eine Dokumentation (z.B. per Video) kann im Hinblick auf besondere Vorkommnisse in einzelnen Untersuchungsgruppen ausgewertet werden (z.B. störende Geräusche von außen, falsche vs. geniale Erklärungen von begriffen bzw. Konzepten usw.).
|
|
Zweifaktorielles Design
|
Am Beispiel "Statistik: Lernen multimedial vs. konventionell und mit vs. ohne Diskussion"
Faktor A: Lernmaterial mit den folgenden Stufen: A1: Lernen mit interaktiver multimedialer Lernumgebung A2: Lernen mit gedrucktem Studienmaterial Faktor B: individuelles vs. kooperatives Lernen B1: rein individuelles Lernen ohne Diskussion B2: Lernen mit täglicher Diskussionsphase Daraus ergeben sich folgende 4 Treatments: A1 + B1 A1 + B2 A2 + B1 A2 + B2 |
|
Doppelblind-Versuch
|
Dies ist die konsequenteste Art der Ausschaltung von Erwartungseffekten bei Probanden und Versuchsleitern.
Hier wird die Durchführung von Personen übernommen, die weder die Fragestellung noch die Unterscheidung zwischen Versuchs- und Kontrollgruppe kennen. Auch die Probanden wissen nicht, zu welcher Gruppe sie gehören. |
|
Versuchsleiter-Erwartungseffekt (oder auch: Rosenthal-Effekt, Pygmalion-Effekt)
|
Je umfangreicher die soziale Interaktion zwischen Versuchsleitung und Versuchspersonen ist, desto stärker kann - unbeabsichtigt - durch Blickkontakt, Gestik, Mimik, Körperhaltung und Betonung bei den Instruktionen eine Erwartungshaltung bei den Vpn vermittelt werden.
|
|
Hawthorne-Effekt
|
Dieser bezeichnet den Effekt, den das Bewusstsein der Versuchspersonen, an einer Untersuchung teilzunehmen, auf ihr Verhalten im Experiment hat (z.B. bzgl. Anstrengungsbereitschaft, Neigung zur Selbstdarstellung etc.).
|
|
Placebo-Effekt
|
Die Kontrollgruppe erhält auch eine "Art von Beschäftigung", welche auch als Treatment bezeichnet werden kann.
In der Psychologie werden der Kontrollgruppe meist konventionelle Methoden zur Verfügung gestellt, die Versuchsgruppe erhält neue Methoden zu Erforschung. |
|
Viergruppenplan von Solomon
|
Dieser Untersuchungsplan setzt sich aus zwei einfacheren zusammen:
aus der Kontrollgruppenanordnung mit Vor- und Nachtest aus der Kontrollgruppenanordnung nur mit Nachtest und erlaubt deshalb eine weitestgehende Kontrolle der wichtigsten Störfaktoren. Viergruppenplan: R O1 X O2 (Versuchsgruppe mit Vor- und Nachtest) R O3 O4 (Kontrollgruppe mit Vor- und Nachtest) R X O5 (Versuchsgruppe nur mit Nachtest) R O6 (Kontrollgruppe nur mit Nachtest) |
|
Parallelisierung
|
Hierbei werden in einem Vortest diejenigen Variablen erhoben, nach denen parallelisiert werden soll.
Anschließend werden auf der Basis dieser Daten Paare von Personen ("matched pairs") - oder bei mehrern Versuchsgruppen sogenannte Blöcke von Probanden - gebildet, von denen jeweils eine Person per Zufall einer der Untersuchungsgruppen zugeordnet wird. |
|
Symbole
|
R (Randomisierung)
O ("observation", Durchführung einer Erhebung von abhängigen/unabhängigen Variablen) X (Durchführung des Treatments, bei meheren X1, X2, X3 usw.) Beispiele: X O1 (Versuchsgruppe mit Nachtest) O2 (Kontrollgruppe mit Nachtest) oder R O1 X O2 (Versuchsgruppe mit Vor- und Nachtest) R O3 O4 (Kontrollgruppe mit Vor- und Nachtest) |
|
Quasi-Experiment
|
Wenn keine Randomisierung, sondern nur die Realisation des Treatments erfolgt.
Es kann aber versucht werden, den Einfluss von Personenmerkmalen durch deren Erfassung statistisch zu kontrollieren oder durch Parallelisierung aller Untersuchungsgruppen im Hinblick auf mehrere Merkmale der teilnehmenden Personen zu reduzieren. |
|
Konfundierung
|
Bezeichnet die Art der "Vermischung von Drittbariablen mit der systematisch variierten unabhängigen Variable".
Das bekannteste Verfahren zu Vermeidung ist das Randomisieren. |
|
Störfaktoren
|
All jene Einflussfaktoren, die neben der experimentellen Ursache ebenfalls Unterschiede in der abhängigen Variable verursacht haben können - und somit Alternativerklärungen zur Hypothese des Experiments darstellen.
|
|
Messung
|
Grundlegender Bestandteil jedes Experiments ist die Messung der abhängigen Variable(n), die in der Versuchsgruppe durch "Herstellung" der Ursache beeinflusst werden soll und deshalb - in zeitlich adäquatem Abstand - nach dem Treatment erfolgen muss.
|
|
Randomisierung
|
Die Zuordnung der Personen zur Versuchs- und Kontrollgruppe erfolgt per Zufall.
|
|
Experimentelles Design
3 zentrale Anfoderungen |
Die Rahmenbedingungen bzw. Settings müssen in der Versuchs- und Kontrollgruppe identisch sein.
Die Vpn als Teil dieser Settings müssen ind er Versuchs- und Kontrollgruppe aus derselben Grundgesamtheit stammen und exakt vergleichbar sein. Versuchs- und Kontrollgruppe unterscheiden sich nur durch das Treatment, das nur in der Versuchsgruppe realisiert wird. |
|
Kausale Beziehungen - Bedeutung für die Psychologie in Forschung und Praxis
|
In vielen Bereichen der sozialen und psychologischen Forschung erfolgt die Theorieentwicklung in Form von sogenannten Strukturgleichungsmodellen, in deren formalem Rahmen mögliche kausale Beziehungen zwischen den Variablen spezifiziert und empirisch geprüft werden.
Interventionsmaßnahmen sind in der psychlogischen Praxis Routine. Dadurch sollen gewüschte Effekt bei den betroffenen Personen erzielt werden. Dabei werden empirische Befunde und theoretisch begründete Annahmen über kausale Zusammenhänge zwischen besstimmten Maßnahmen und deren Effekten zugrunde gelegt. Es sind keine detaillierten theoretischen Konzepte notwendig, sondern technologische Regeln, die einen kausalen Zusammenhang zwischen bestimmten Bedingungen einerseits und einer intendierten Wirkung andererseits spezifizieren. |
|
Kausale Relationen im System sozialer Interaktionen
Beispiele |
Ursache eine Einzelereignisses
Fahrzeug A und Fahrzeug B krachen zusammen, Fahrer B verletzt sich schwer und hat die Rahmenbedingung R "Bluter". Ärztliche Hilfe kommt zu spät, er stirbt. Ursache bleibt aber der Unfall. Ursachen von Verhalten in sozialen Situationen z.B. unterlassene Hilfeleistung bei Stresserleben |
|
Implikationen des Konzeptes einer kausalen Ursache zwischen U und V
|
Die Annahame, dass alle Randbedingungen konstant sind ("ceteris-paribus")
Die kontrafaktische Aussage, die aus jeder kausalen Hypothese folgt: "U ist Ursache von V" impliziert: "Wenn U nicht eingetreten wäre, wäre auch die Wirkung V nicht eingetreten" |
|
Ursache
Definition (Westermann, 2000) |
Ein Ereignis U ist Ursache für das Ereignis V als Teil einer Gesamtsituation S unter den Randbedingungen R, wenn folgendes gilt:
U ist notwendig, aber nicht hinreichend für das Eintreten von V U und R gemeinsam sind hinreichend, aber nicht notwendig für V R allein ist nicht hinreichend für das Eintreten von V U tritt zeitlich vor V ein |
|
Kausalität
Aspekt: Genauigkeit des Messens |
Hat Bedeutung für jede quantitative Analyse von Zusammenhängen zwischen Variablen - insbesondere bei deren Verwendung zu prognostischen Zwecken.
|
|
Kausalität
Aspekt: Analyseebenen |
Unterscheidung zwischen verschiedenen Ebenen:
Aussagen über einzelne Objekte (physische Objekte oder Lebenwesen) Aussagen über ein Kollektiv (physische Objekte oder Lebenwesen) Wobei der Grad der Determiniertheit der Aussagen in beiden Analyseebenen unterschiedlich sein kann. |
|
Kausalität
Aspekt: Wahrscheinlichkeitsaussagen |
Die Möglichkeit und Konzeption von Wahrscheinlichkeitsaussagen als Teil von wissenschaftlichen Theorien (über Zustände von oder Zusammenhänge zwischen Objekten).
|
|
Kausalität
3 Aspekte |
Wahrscheinlichkeitsaussagen
Analyseebenen Genauigkeit des Messens |
|
Deterministische Zusammenhänge in der Psychologie
|
Finden sich bestenfalls in der Allgemeinen Psychologie, besonders im Bereich der Psychophysik sowie im Bereich der Lern- und Gedächtnisforschung.
|
|
Experiment
Charakterisiert druch zwei Bedingungen |
Der Experimentator variiert systematisch mindestens eine Variable (sogenannte unabhängige Variable) und registriert, welchen Effekt diese aktive Veränderung bewirkt - in einer (oder mehreren) Experimentalgruppe(n) im Vergleich zu einer Kontrollgruppe auf die sogenannte abhängige Variable.
Gleichzeitig schaltet er die Wirkung von anderen Variablen aus (mit einer der Techniken zur Kontrolle von Störvariablen). |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 10. Verantwortungsvoller Umgang mit Tieren in der Forschung |
In der psychologischen Forschung, z.B. in neuropsychologischen Studien oder Lern-Experimenten, werden auch Tiere als "Vpn" eingesetzt.
Es wird hier geregelt, dass Tiere artgerecht gehalten und behandelt werden müssen. Sowohl physische Beeinträchtigungen als auch Operationen müssen durch den Erkenntnisgewinn gerechtfertigt werden. |
|
Wissenschaftlicher Fortschritt und Menschenwürde
|
Alle ethischen Fragen im Zusammenhang mit Täuschung oder psychischen/physischen beeinträchtigungen machen ein Dilemma psychologischer Forschung sichtbar, welches auch unter "Kosten-Nutzen-Rechnung" oder "methodologische vs. ethische Normen" diskutiert wird.
Es geht um die Frage, unter welchen Bedingungen eine zeitlich begrenzte Verletzung ethischer Normen gerechtfertig ist. Ein Forscher sieht u.U. in seinem Projekt einen größeren Nutzen als ein Kollege, der diese Studie nur begutachtet. |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 9. Aufklärung der Forschungsteilnehmer/innen |
Hier wird eine Aufklärung der Teilnehmer/innen gefordert, in dem auch darauf hingewiesen wird, dass Psychologen verpflichtet sind geeignete Schritte zu unternehmen, wenn sie erfahren, dass ihre Forschung Probanden Schaden zugefügt hat.
|
|
Debriefing
|
Aufklärung eines Probanden über ein durchgeführtes Täuschungsmanöver während eines Versuchs.
|
|
Stooges
|
Pseudo-Versuchspersonen
Dies sind Mitarbeiter des Versuchsleiters, die gegenüber den echten Probanden als weitere Probanden ausgegeben werden, mit denen sie in Interaktion treten. |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 8. Täuschung in der Forschung |
Hier wird die Täuschung der Probanden thematisiert.
Aus methodischen Gründen kann die Täuschung notwendig sein (z.B. Doppelblind-Versuch). Auch kann eine Täuschung durch Stooges erfolgen. Hier wird klar gestellt, dass solche Täuschungsmanöver nur dann infrage kommen, wenn sie sich durch den voraussichtlichen Erkenntnisgewinn rechtfertigen lassen und keine alternativen Vorgehensweisen ohne Täuschung zur Verfügung stehen. |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 7. Anreize zur Teilnahme an Forschungsvorhaben |
Manchmal werden finanzielle oder sonstige Anreize angeboten.
Sie dürfen nicht in unverhältnismäßiger Höhe angeboten werden, um zu vermeiden, dass Personen zu einer Teilnahme genötigt werden. |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 6. Verzicht auf eine auf Aufklärung basierende Einwilligung in die Forschung |
Hier wird erläutert, unter welchen Bedingungen auf eine explizite informierte Einwilligung zu einer psychologischen Untersuchung verzichtet werden kann.
Demnach kann verzichtet werden, wenn absehbar ist, dass die Teilnahme kein Unbehagen erzeugt, das über alltägliche Erfahrungen hinaus geht. |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 5. Klienten/Patienten, Schüler , Studierende und Psychologen unterstellte Personen als Versuchsteilnehmer |
Wenn Forschungsarbeiten mit den oben genannten Personen durchgeführt werden, tragen Psychologen dafür Sorge, dass eine Nicht-Teilnahme oder die vorzeitige Beendigung der Teilnahme für die potenziell Teilnehmenden keine nachteiligen Konsequenzen haben wird.
Ist die Teilnahme an Forschungsprojekten und Untersuchungen Teil der Ausbildung oder durch Prüfungsordnungen vorgeschrieben, so müssen die potenziell Teilnehmenden auf gleichwertige Alternativen zur Untersuchungsteilnahme hingewiesen werden. |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 4. Auf Aufklärung basierende Einwilligung für das Aufnehmen von Stimmen oder Bildern im Rahmen eines Forschungsvorhabens |
Falls während der Versuchsdurchführung Audio- und/oder Videoaufzeichnungen gemacht werden, muss dafür eine Einwilligung geholt werden.
|
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze |
Insgesamt werden 15 ethische Grundsätze für die psychologische Forschung und die Publikation von Forschungsergebnissen vorgelegt.
In den Grundsätzen 3 - 8 geht es um die Bedingungen, unter denen sich Personen entscheiden, überhaupt an einer psychologischen Studie teilzunehmen. Die Grundsätze 11 - 15 betreffen die Publikation von Forschungsergebnissen und werden an anderer Stelle näher erörtert. Genereller ethischer Grundsatz Förmliche Bewilligungen Auf Aufklärung basierende Einwilligung in die Forschung Auf Auflkärung basierende Einwilligung für das Aufnehmen von Stimmen oder Bildern im Rahmen eines Forschungsvorhabens Klienten/Patienten, Schüler, Studierende und Psychologen unterstellte Personen als Forschungsteilnehmer Verzicht auf eine auf Aufklärung basierende Einwilligung in die Forschung Anreize zur Teilnahme an Forschungsvorhaben Täuschung in der Forschung Aufklärung der Forschungsteilnehmer/innen Verwantwortungsvoller Umgang mit Tieren in der Forschung Darstellung von Forschungsergebnissen Plagiate Kennzeichnung des Leistungsanteils an einer Forschungsarbeit in Publikationen Weitergabe von Forschungsdaten zum Zweck der Überprüfung Gutachter |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 3. Auf Aufklärung basierende Einwilligung in die Forschung |
Im Regelfall wird ein Proband über das Forschungsvorhaben umfassend und verständlich informiert.
Erklärt sich eine Person vor dem Hintergrund der relevanten Informationen bereit, an der Untersuchung teilzunehmen, wird von informed consent oder informierter Einwilligung gesprochen. |
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 2. Förmliche Bewilligungen |
Diese müssen bei bestimmten Forschungsprojekten eingeholt werden.
|
|
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze 1. Genereller ethischer Grundsatz |
Hier wird auf die besondere Verantwortung hingewiesen, die Psychologen tragen, wenn sie in der Forschung tätig sind.
Damit verbunden ist die Verpflichtung, Würde und Integrität sowie Sicherheit und Wohl der Vpn zu gewährleisten und mögliche Risiken auszuschließen. |
|
Ethische Richtlinien, denen die empirisch-psychologische Forschung unterliegt
Welche Gesellschaften haben diese verabsschiedet? |
Deutsche Gesellschaft für Psychologie (DGPs)
Berufsverband deutscher Psychologinnen und Psychologen (BDP) |