• Shuffle
    Toggle On
    Toggle Off
  • Alphabetize
    Toggle On
    Toggle Off
  • Front First
    Toggle On
    Toggle Off
  • Both Sides
    Toggle On
    Toggle Off
  • Read
    Toggle On
    Toggle Off
Reading...
Front

Card Range To Study

through

image

Play button

image

Play button

image

Progress

1/340

Click to flip

Use LEFT and RIGHT arrow keys to navigate between flashcards;

Use UP and DOWN arrow keys to flip the card;

H to show hint;

A reads text to speech;

340 Cards in this Set

  • Front
  • Back
Verstehende Psychologie
Das Ziel der Wissenschaftler ist: Die Welt zu verstehen und auf der Grundlage von moralischen Werten Rat zu geben.
Wissenschaftliche Prüfung von Alltagspsychologischem Wissen
Trotz Fehler der Alltagspsychologie ist alltagspsychologisches Wissen häufig zutreffend.
Viele intuitive Entscheidungen im Alltag unter bestimmten Voraussetzungen führen sogar zu besseren Ergebnissen als ein systematisches Abwägen aller Informationen (nach Gerd Gigerenzer, 2007)
Aber selbst in diesem Fall helfen wissenschaftlich-psychologische Methoden weiter.
Berufliche Relevanz wissenschaftlicher Methoden
Man muss die Unterschiede zwischen einem wissenschaftlich-psychologischem und einem alltagspsychologischem Vorgehen deutlich machen können.
Zentraler Stellenwert hat in einer Argumentation die wissenschaftliche Methode, weil sie den entscheidenden Unterschied ausmacht.
Interventionsmethoden in den psychologischen Anwendungsfächern
Diese Methoden zielen nicht darauf ab, die Wissenschaftlichkeit von Aussagen zu sichern, sondern bestimmte Wirkungen zu erzielen.
Damit diese Interventionsmethoden als "wissenschaftlich" bezeichnet werden können, müssen die durch sie intendierten Wirkungen wiederrum mit den Methoden der systematischen und wiederholbaren Datenerhebung und -auswertung unter Anwendung geeigneter Untersuchungsdesigns evaluiert werden.
Falsifikation statt Verifikation
Eine kritische Prüfung von Hypothesen wird in der wissenschaftlichen Psychologie nicht dadurch vorgenommen, dass bestätigende Belege für eine Vermutung gesammelt werden, also nciht durch Konfirmation.
Es wird vielmehr versucht, eine bestehende Hypothese zu widerlegen, also zu zeigen, dass sie falsch ist.
Messung psychischer Phänomene
Zur Messung von Nicht-Beobachtbaren psychischen Konzepten sind andere Instrumente als ein Lineal notwendig. Und man muss sich auch mit der Theorie und Methode des Messens überhaupt auseinandersetzen, um psychische Phänomene messen zu können.
Die Messung dieser trägt erheblich zur deren empirischer Präzisierung bei.
Diese Präzision oder Genauigkeit ist insbesondere dann wichtig, wenn die Effekte von Maßnahmen, z. B. zur Reduktion von Stress, gewertet werden sollen.
Psychologie als empirische Wissenschaft
Die Psychologie ist eine empirische Wissenschaft und verwendet deshalb nicht nur Methoden nicht nur Generierung und Formulierung von Theorien, sondern auch Methoden zur Erhebung und Analyse von Erfahrungsdaten.
Hypothetisches Konstrukt
Theoretischer Begriff
Definition und Explikation von Begriffen
Damit aus einer Idee oder Vermutung eine neue wissenschaftliche Theorie wird, müssen viele methodisch kontrollierte Einzelschritte (mehrmals) durchlaufen werden. Eine Theorie enthält Begriffe, deren Bedeutung durch Explikations- und Definitionsmethoden festgelegt und präzisiert werden.
Methoden der Psychologie als Wissenschaft
Aus einer bestehenden Theorie werden Hypothesen abgeleitet, die dann empirisch überprüft werden, indem Erfahrungsdaten erhoben, analysiert und im Lichte der Theorie interpretiert werden.

Methoden zur Erhebung von Daten

Beobachtung, Befragung, standardisierte Tests


Untersuchungsdesigns

Experiment, Korrelationsstudie, Einzelfallstudie


Methoden zur Datenauswertung

Beschreibende und Schließende Statistik, Inhaltsanalyse
Methoden als "Wege" zur Wissenschaft
Die Methodenlehre hat auch für die Psycvhologie einen zentralen Stellenwert, weil durch sie die Wissenschaftlichkeit psychologischer  Theorien und Befunde gesichert wird.
Im Unterschied zur Alltagspsychologie setzt die Psychologie Methoden ein, die eine systematische Überprüfung und Weiterentwicklung von Theorien durch die geplante und wiederholbare Erhebung, Analyse und Interpretation von Erfahrungsdaten ermöglicht.
Wissenschaftstheorie und Methodologie
Was eigentlich Wissenschaft bzw. wissenschaftliche Vorgehen ausmacht, ist Gegenstand der Wissenschaftstheorie.
Die Methodologie als Teilgebiet der Wissenschaftstheorie beschäftigt sich mit der Analyse und Lehre von den Methoden einer Wissenschaft.
Alltagspsychologie vs. wissenschaftlicher Psychologie
"Was" vs. "Wie"
Der Unterschied besteht also nicht im Gegenstand, im "Was", sondern in der Methode, also im "Wie" der Erkenntnisgewinnung.
Alltagspsychologie
Unzureichende Prüfung von Vermutungen
Wenn wir im Alltag eine Erklärung für z.B. ein psychologisches Phänomen liefern, dann überprüfen wir diese Erklärung (im wissenschfltichen Sinn: Hypothese) nicht systematisch.
Wir stützen uns eher u.a. auf Erfahrungen oder Autoritäten, lassen uns von Medien etwas suggerieren etc.
Alltagspsychologie
Fehler beim Umgang mit Wahrscheinlichkeiten
Besonders deutlich lassen sich Fehler der Alltagspsychologie oder beim alltäglichen Denken zeigen, wenn man den intuitiven Umgang mit Wahrscheinlichkeiten mit den tatsächlich, d.h. stochastisch korrekten Lösungen kontrastiert.
Wie u.a. bei den Beispielen

AIDS-Test (Gigerenzer, 2002)
"Ziegen-Problem"
Fundamentaler Attributionsfehler (nach Ross)
Personen schreiben das Verhalten anderer Personen also eher personalen, das eigene Verhalten eher situationalen Faktoren zu.
Akteur-Beobachter-Fehler (Jones und Nisbett, 1972)
Dieser wird u.a. mit Unterschieden in der Wahrnehmungsperspektive erlkärt.
Akteure "sehen" in einem gegebenen Kontext eher die Anforderungen und Charakteristika einer Situation, während die eigene Person aus dem Wahrnehmungsfokus zurücktritt.
Bei Beobachtern ist es umgekehrt: die beobachtete Person steht im Mittelpunkt der Wahrnehmung.
Primacy-Recency-Effekt
Bei diesem handelt es sich um Urteilsverzerrungen, die mit der Reihenfolge zusammenhängen, in der Informationen ankommen bzw. dargeboten werden.
Demnach werden die zuerst und die zuletzt dargebotenen Informationen besonders gut erinnert und beeinflussen deshalb das Gesamturteil besonders stark.
Alltagspsychologie
Fehler beim Wahrnehmen, Erinnern und Denken
Unsere Alltagswahrnehmung täuscht uns manchmal etwas vor, was bei genauerer Prüfung gar nicht der Fall ist.
Beispiel: Müller-Lyer-Täuschung
Alltagspsychologie
Sprachgebrauch
Als Beispiel:
Wenn die Mitarbeiter eines Unternehmens sagen, sie hätten jetzt mehr Stress, dann ist

unklar, was genau "mehr" bedeutet und
was ein einzelner Mitarbeiter egentlich genau unter "Stress" versteht.

"Mehr" weist natürlich darauf hin, dass der "Stress" zugenommen hat, aber in welchem Ausmaß, bleibt unklar.
Alltagspsychologie
Die Fehler
Der alltagspsychologische Sprachgebrauch ist mehrdeutig und ungenau


Es gibt alltagspsychologische Fehler beim Wahrnehmen, Erinnern und Denken


Der Primacy-Recency-Effekt


Der Akteur-Beobachter-Fehler


Fehler beim Umgang von Wahrscheinlichkeiten


Unzureichende Prüfung von Vermutungen
Warum Methodenlehre in der Psychologie?
Die Alltagspsychologie ist fehlerbehaftet.
Die wissenschaftliche Psychologie ist weniger fehlerbehaftet, weil sie bestimmte Methoden einsetzt, um psychologische Fragen zu beantworten.
Modell probabilistischer Kausalerklärungen (Humphreys, 1989)
Vorhersage
Wenn Gesetzesaussagen bekannt sind und Antezedenzbedingungen korrekt diagnostiziert werden können, dann ist eine Vorhersage möglich.
Wegen der Merkmale von Gesetzen im psychischen Phänomenbereich (Wahrscheinlichkeitsaussagen, Multideterminiertheit, mangelnde Rekonstruierbarkeit) sind aber keine 100-prozentigen deterministischen Vorhersagen, sondern lediglich Wahrscheinlichkeitsaussagen möglich.
Biopsychosoziales Modell
Besagt, dass psychische Phänomene von biologischen, psychologischen und sozialen Bedingungen abhängen können.
Explanandum
Dieses beinhaltet eine Beschreibung des zu erklärenden Ereignisses und wir logisch aus dem Explanans abgeleitet.
Beispiel (Explanans und Explanandum):

G:


Wenn eine Person hohe Prüfungsangst hat, so verringert sich ihre Leistung bei kognitiven Aufgaben.


A:

P hatte Prüfungsangst.


-----------------------------------------
E:


P erbrachte eine verringerte Leistung.
Explanans
Besteht aus allgemeinen Gesetzen (Hypothesen oder theoretische Annahmen) und Antezedenzbedingungen bzw. Sätzen, die die Antezedenzbedingungen beschreiben.
Beispiel (Explanans und Explanandum):

G:


Wenn eine Person hohe Prüfungsangst hat, so verringert sich ihre Leistung bei kognitiven Aufgaben.


A:

P hatte Prüfungsangst.


-----------------------------------------
E:


P erbrachte eine verringerte Leistung.
Modell probabilistischer Kausalerklärungen (Humphreys, 1989)
Weitere Erklärungen
Der entscheidende Punkt in dem Modell ist das "F trotz I". Dabei handelt es sich um Listen der zu Y beitragenden bzw. entgegenwirkenden Ursachen.
Ein Ereignis A kann nur dann als Ursache bezeichnet werden, wenn:

A zeitlich vor B liegt
A und B kovariieren
für das Auftreten von B nur das Eintreten von A verantworltlich ist
Modell probabilistischer Kausalerklärungen (Humphreys, 1989)

Bedingungen
Bedingungen:
Damit etwas eine Ursache ist, muss sie unweigerlich ihre Wirkung hervorrufen. Probabilistische Ursachen erzeugen Änderungen in der Auftrittswahrscheinlichkeit der Wirkung:
Zu Y beitragende Ursachen erzeugen eine Zunahme, entgegenwirkende Ursachen erzeugen eine Abnahme der Auftrittswahrscheinlichkeiten von Y.
Modell probabilistischer Kausalerklärungen (Humphreys, 1989)
Für die Psychologie eignet sich dieses Modell deutlich besser als das DN-Schema.
Eine adäuqate Erklärung ist demnach folgendermaßen strukturiert:
Y in S zur Zeit t (tritt auf, lag vor) aufgrund von F trotz I.
 
Bedeutungen der Abkürzungen nach Westmeyer (2006):
Y = Ein Ausdruck, der sich auf eine Eigenschaft oder eine Änderung in einer Eigenschaft bezieht.
S = Ein Ausdruck, der sich auf ein System bezieht.
F = eine (nicht-leere) Liste von Ausdrücken, die sich auf zu Y beitragende Ursachen bezieht.
I = Eine (u.U. leere) Liste von Ausdrücken, die sich auf Y entgegenwirkende Ursachen beziehen.
Problem der Preemption (Achinstein, 1983)
Beispiel:
G: Jede Person, die ein Pfund Arsen zu sich nimmt, stirbt binnen 24 Stunden.
A: Jones aß ein Pfund Arsen.
---------------------------------------
E: Jones starb innerhalb von 24 Stunden.
 
Die Erklärung scheint korrekt, denn die Ableitung aus G und A stimmt weiterhin, aber sie liefert nicht die exakte Erklärung für das Ableben von Jones, denn es kann sein, dass er kurz nach der Einnahme von einem Bus überfahren wurde und dabei gestorben ist. Also war der Bus schneller!
DN-Schema
Einwände
Die Anforderungen des DN-Schemas können in der Psychologie meistens nicht erfüllt werden.
Einwände:

Verletzungen der Adäquatheitsbedingungen
Gesetzesaussagen sind noch gar nicht formuliert, geschweige denn geprüft
Antezedenzbedingungen sind nur zum Teil bekannt
Gut bewährte Gesetzesannahmen fehlen häufig aufgrund der Komplexität des Gegenstandsbereichs der Psychologie
In der Psychologie liegen keine deterministischen, sondern lediglich Wahrscheinlichkeitszusammenhänge vor, welche keine Prognose für Einzelfälle erlauben
Adäquatheitsbedingungen (damit eine Erklärung als korrekt gelten kann)
Das Argument, das vom Explanans zum Explanandum führt, muss logisch korrekt sein.
Das Explanans muss mindestens ein allgemeines Gesetz enthalten.
Das Explanans muss empirisches Gehalt besitzen.
Die Sätze, aus denen das Explanans besteht, müssen gut bewährt sein.
Deduktiv-nomologische Erklärung
Besteht aus dem Explanans und dem Explanandum.
DN- bzw. HO-Schema (Hempel, 1977)
Dieses ist ein wissenschaftlliches Erklärungsmodell und beschreibt die Struktur deduktiv-nomologischer Erklärungen.
Es bezieht sich in erster Linie auf physikalische Naturgesetze, wurde aber auch innerhalb der Psychologie kritisch diskutiert.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Rationalität
Macht die Theorie Annahmen über die "Archtitektur" des psychischen Systems, die im Lichte von evolutionären Bedingungen Sinn machen?
Über dieses Kriterium lässt sich streiten, da es eine bestimmte theoretische Perspektive (die Evolutionstheorie) als bedingung für die Angemessenheit anderer Theorien einsetzt.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Angewandte Relevanz
Hat die Theorie Implikationen für angewandt-psychologische Fragestellungen?
Die praktische Bedeutung, z.B. die Relevanz für die Lösung sozialer und psychischer Probleme, ist also ebenfalls ein wichtiges Kriterium.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Breite
Lässt sich die Theorie auf einen weiten Bereich von Phänomenen anwenden oder ist sie auf einen engen Phänomenbereich beschränkt?
Gerade in der Psychologie gibt es viele Mini-Theorien, die nur sehr spezifisch und unter ganz bestimmten Randbedingungen anzuwenden sind. Theorien sollten aber einen möglichst breiten Anwendungsbereich haben.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Originalität
Ist die Theorie neu? (Oder reformuliert sie lediglich bestehende Theorien?)
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Einfachheit
Ist die Theorie so einfach wie möglich?
Dieses Kriterium ist in gewisser Weise relativ und nachgeordnet, da Theorien natürlich auch kompliziert sein können, wenn es einfacher nicht geht.
Jedoch sollten immer einfachere den komplexeren Theorien vorgezogen werden, wenn sie dieselben Phänomene erklären.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Erklärungswert
Erklärt die Theorie bereits vorliegende empirische Befunde?
Da Vorhersagen in der Psychologie in vielen Fällen schwierig und nur eingeschränkt möglich sind, sollte eine Theorie auch nach dem Ausmaß bewertet werden, in dem sie bereits eingetretene Ereignisse erklären kann.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Vorhersage und Falsifizierbarkeit
Ist die Theorie so formuliert, dass empirische Prüfungen zu einer Widerlegung der Theorie führen können?
Dieses Kriterium entspricht der Hauptforderung des Kritischen Rationalismus.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Kohärenz und Konsistenz
Enthält die Theorie logische Fehlschlüsse?
Bilden die unterschiedlichen Komponenten einer Theorie ein kohärentes Ganzes?
Stimmt die Theorie mit Theorien aus anderen Bereichen überein?
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Präzision und Interpretierbarkeit
Ist die Theorie so präzise beschrieben, dass sie leicht und eindeutig verstanden und interpretiert werden kann?
Dieses kriterium betriff die Vagheit und Mehrdeutigkeit von Begriffen, die sich mehr oder weniger durch eine ganze Theorie ziehen können.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
Hier: Deskriptive Angemessenheit
Stimmt die Theorie mit vorhandenen verhaltensbezogenen, physiologischen, neuropsychologischen und anderen empirischen Daten überein?
Dieses Kriterium betrifft das Ausmaß, in dem die aus einer Theorie ableitbaren Beobachtungen bestätigt werden können.
Kriterien zur Bewertung von Theorien (Dennis und Kintsch, 2007)
(Alle 10)
Deskriptive Angemessenheit
Präzision und Interpretierbarkeit
Kohärenz und Konsistenz
Vorhersage und Falsifizierbarkeit
Erklärungswert
Einfachheit
Originalität
Breite
Angewandte Relevanz
Rationalität
statement view
(Aussagen-Konzeption)
3 Arten wissenschaftlicher Aussagen, denen drei Sprachen zugeordnet werden (Groeben & Westmeyer, 1981)
Aussagen, die außer den logischen Zeichen nur Beobachtungsbegriffe enthalten und die Ebene der Beobachtung bilden (Beobachtungssprache)

 

Aussagen, die außer den logischen Zeichen nur theoretische Begriffe enthalten, die den "Knoten" entsprechen (Theoretische Sprache)

 

Aussagen, die außer den logischen Zeichen Beobachtungsbegriffe und theoretische Begriffe enthalten und als "Interpretationsfäden" fungieren (System der Zuordnungsregeln)
Definition und Explikation
Der Unterschied (Groeben & Westmeyer, 1981)
Bei einer Definition wird einem neuen Zeichen eine bestimmte Bedeutung zugeordnet.
Eine Explikation dagegen basiert auf einem bereits gebräuchlichen Zeichen, dessen Bedeutung eingegrenzt und präzisiert wird.
Im wissenschafltichen Alltagsgeschäft werden sie oft synonym verwendet.
Explikation
Die Bedingung: Fruchtbarkeit
Das Explikat führt zu allgemeinen Aussagen und macht neue Beziehungen deutlich, die mit dem Explikandum nicht deutlich geworden wären.
Explikation
Die Bedingung: Exaktheit
Für Explikata müssen präzise Gebrauchsregeln und Anwendungsvorschriften vorhanden sein.
Explikation
Die Bedingung: Ähnlichkeit mit dem Explikandum
Diese besagt, dass das Explikat in den meisten Fällen, in denen bisher das Explikandum verwendet wurde, anwendbar sein muss.
Explikation
Hier wird ein Begriff weiterentwickelt, indem ein unexaktes Explikandum in ein exakteres Explikat überführt wird.
Begriffsexplikationen sind in der Psychologie insbesondere dann notwendig, wenn umgangssprachliche Begriffe als wissenschaftliche Begriffe verwendet werden sollen.
Ein Begriff muss, um als adäquates Explikat für ein gegebenes Explikandum gelten zu können, bestimmte Bedingungen erfüllen:

Ähnlichkeit mit dem Explikandum
Exaktheit
Fruchtbarkeit
Einfachheit (nachgeordnet)
Bedingte und partielle Definition (Groeben & Westmeyer, 1981)
Diese sind mit einer Bedingung verknüpft, die gelten muss, damit ein Begriff angewendet werden kann. Über die Anwendbarkeit eines Begriffs lässt sich keine Aussage machen, wenn die Bedingung nicht erfüllt ist; deshalb ist der Begriff auch nur partiell definiert.
Sie treten häufig in Form operationaler Definitionen auf.
Kontextdefintionen (Groeben & Westmeyer, 1981)
Diese stellen keine Identität her, sondern geben äquivalente Ausdrücke an, in denen das neue Zeichen vorkommt.
Insbesondere Relationsbegriffe und quantitative Begriffe werden kontextuell definiert.
Kontextdefinitionen liegen auch bei Kennzeichnungen, insbesondere bei Namensgebungen vor, z.B. "Sigmund Freud ist Begründer der Psychoanalyse".
Explizite Definitionen (Groeben & Westmeyer, 1981)
Stellen eine Identität zwischen Definiendum und Definiens her, indem sie ein neu einzuführendes Zeichen mit einem oder einer Reihe bereits eingeführter Zeichen gleichsetzen.
Durch explizite Definitionen können Begriffe eingeführt werden, die die Kommunikation erleichtern:
z. B. aus
"Diese Geraden liegen in einer Ebene und schneiden sich nicht" 
wird
"Diese Geraden sind parallel"
Definitionsarten (Groeben & Westmeyer, 1981)
Vollständige Definitionen

Explizite Definitionen
Kontextdefinitionen


Partielle Definitionen
Bedingte Definitionen
Definitionskriterien (Suppes, 1957)
Eliminierbarkeit

Besagt, dass ein Definiendum an jeder Stelle einer Theorie durch die zuvor nicht definierten Grundbegriffe ersetzt werden kann.


Nicht-Kreativität

Besagt, dass durch das Definiendum nicht zusätzliche Annahmen in die Theorie eingeführt werden dürfen, die den faktischen Gehalt der Theorie erweitern.
Definition (Radnitzky, 1992)
Unter "Definieren" versteht man einen Prozess, in dem einem sprachlichen Ausdruck eine exakte Bedeutung gegeben wird. Das Resultat heißt dann "Definition".
Definiendum (Radnitzky, 1992)
Der zu definierende Ausdruck.
Der Ausdruck, dessen Bedeutung angegeben werden soll.
Definiens (Radnitzky, 1992)
Der Audruck, mit dem das Definiendum definiert wird.
Randintension (Groeben & Westmeyer, 1981)
Attribute, die nicht zur Kernintension, aber zur Intension eines Begriffs zählen, werden dagegen der Randintension zugeordnet.
Attribute können von der Randintension in die Kernintension aufgenommen werden und umgekehrt.
Kernintension (Groeben & Westmeyer, 1981)
Um ein ausreichendes Maß an intensionaler Bestimmtheit zu sichern, muss eine Kernintension angegeben werden.
Diese enthält die Menge der Attribute, die hinreichend und notwendig sind, damit ein Element in die Extension eines Begriffs aufgenommen werden kann. 
Attribute können von der Randintension in die Kernintension aufgenommen werden und umgekehrt.
Vagheit sprachlicher Zeichen
Liegt dann vor, wenn seine Bedeutung(en) nicht genau angegeben werden können.
Ein Begriff ist vage, wenn seine Intension und/oder Extension unbestimmt ist.
Extensionale Unbestimmtheit ist weniger problematisch und sogar erwünscht, solange ein wissenschaftlicher Begriff eine ausreichende intensionale Bestimmtheit aufweist.
Mehrdeutigkeit sprachlicher Zeichen
4 mögliche Beziehungen zwischen Zeichen und Bedeutung (Groeben & Westmeyer, 1981)
Ein-eindeutige Beziehung

ist dann gegeben, wenn einem bestimmten Zeichen genau eine Bedeutung zukommt


Eine ein-mehrdeutige Beziehung

liegt vor, wenn ein bestimmtes zeichen mit mehreren Bedeutungen verbunden ist


Mehr-Eindeutigkeit

kennzeichnet den Fall mehrerer Zeichen mit derselben Bedeutung


Mehr-mehrdeutig

sind mehrere Zeichen mit denselben und zwar jeweils mehreren Bedeutungen
Intension
Begriffsinhalt.
Umfasst die Menge der Attribute oder Merkmale, die eine Einheit aufweisen muss, damit sie zur Extension eines Begriffs gehört.
Extension
Begriffsumfang.
Die Menge der Einheiten, die unter den Begriff fallen.
Forschungsprogramme - Gründe fürs Scheitern
Das Scheitern kann sowohl durch außerwissenschafltiche Einflüsse als auch durch die offenbar werdende Erfolglosigkeit bedingt sein.
Vor allem Domain-Programme können sich unter dem Einfluss eines neuen Quasi-Paradigmas so verändern, dass ihr Annahmekern und somit das ganze Problem betroffen ist (3. Art der Problembewältigung).
Problemlösung 2. Art
Treten nach Herrmann (1976) vor allem in dreierlei Weise auf:

bei der Rezeption außerwissenschaftlich vorgegebener Probleme durch die wissenschaftliche Psychologie,
als Ergebnis langfristig erfolgloser Kernanwendungen im Verlauf eines Forschungsprogramms und
bei der Übernahme eines Problems aus einem Forschungsprogramm durch "Umstrukturierung" desselben unter den Prämissen eines anderen (oft Typ b-Programme).
Problemlösung - 2 Arten
Problemlösung 1. Art

Problemlösung innerhalb von Forschungsprogrammen unter Beibehaltung des Problems und damit des jeweiligen Annahmekerns.


Problemlösung 2. Art

das (ungelöste) Problem wird durch das Austauschen des Annahmekerns durch ein neues Problem ersetzt.
Problemlösung 1. Art
Hier werden aus dem Annahmekern und den veränderbaren Zusatzannahmen Folgerungen gezogen, die bei Herrmann Sekundärannahmen genannt werden.
Die empirischen Erwartungen (Hypothesen) werden aus diesen Sekundärannahmen abgeleitet.
Stellt sich nun heraus, dass die tatsächlich empirischen Befunde mit den Hypothesen nicht vereinbar sind, können die Sekundärannahmen aufgegeben bzw. verändert werden, wovon nur die Zusatz-, nicht die Kernannahmen betroffen sind.
Nicht-Aussagen-Konzeption von Theorien
Herrmann versuchte diese gegenüber der Aussagen-Konzeption mit in die psychologische Theoriebildung zu übernehmen.
Sie sieht eine Theorie als ein nicht-sprachliches Gebilde an, das sich in zwei Bereiche unterteilen lässt:

den Strukturkern der Theorie, der das Fundamentalgesetz und die grundlegenden Nebenbedingungen enthält, die alle Anwendungen miteinander verbinden und
die Menge der intendierten Anwendungen, die eine offene Menge darstellt. Aus ihr können alte Elemente entfernt und neue hinzugefügt werden.
Aussagen-Konzeption von Theorien
Aus Sicht des empirisch-wissenschaftlichen Wissenschaftsverständnisses besteht Wissenschaft aus einem System von Sätzen, die zueinander nicht im Widerspruch stehen dürfen.
Diese Sichtweise nennt man die "Aussagen-Konzeption".
Theorien werden in drei Bereiche aufgegleidert:

in die Klasse der theoretischen Aussagen
in die Klasse der Beobachtungsaussagen
in die Klasse der Zuordnungsregeln
Domain-Forscher und Paradigmen-Forscher im Vergleich nach Herrmann (1979)
Wenn der Proponent des Quasi-Paradigmas der Verstärkung erfährt, dass die Verwendbarkeit seines Quasi-Paradigmas etwas in der Aggressionsforschung nichts oder zuwenig erbringt, dann gibt er es keineswegs auf. Er streicht dann höchstens das Aggressionsproblem aus der Anwendungsmenge der Verstärkungskonzeption. Die Aggressionsforschung überlässt er ihrem Schicksal.
Für den Aggressions-(Domain-)Forscher wird die Verstärkungskonzeption obsolet.
Für den Verstärkungs-(Paradigmen-)Forscher wird die Aggression obsolet.
Quasi-paradigmatische Forschungsprogramme
Auch Typ b-Programme.
Hier hat man eine Theorie und sucht möglichst umfassende Anwendungsmöglichkeiten.
Quasi-paradigmatische Forschungsprogramme haben einen indisponiblen Annahmekern, der aus theoretischen Grundannahmen besteht.
Herrmann warnt allerdings davor, Typ b-Programme mit Sachverhalten zu verwechseln, die allenfalls als "abschreckende Zerrbilder" eines Quasi-Paradigmas angesehen werden können.
Psychologische Domain-Programme
Auch Typ a-Programme.
Hier werden Problemfelder anhand von Theorien erforscht.
Das jeweilige Problemfeld ist definiert durch einen Kern von Annahmen (Annahmekern, ähnlich wie bei Lakatos).
Annahmekerne bleiben bei der Problembearbeitung unverändert und sind weder richtig oder falsch, sondern allenfalls uninteressant, wenig sinnvoll oder erfolgsversprechend und könnten deswegen verworfen werden.
Theo Herrmanns Darstellung der Psychologie (1976)
Diese orientiert sich stark an den wissenschaftstheoretischen Konzepten von Kuhn und Lakatos.
Für Herrmann ist die Psychologie ein "Flechtwerk sich wandelnder wissenschaftlicher Problemlösungsprozesse (Forschungsprogramme)" , also nicht etwas eine Disziplin mit einem einheitlich definierten Gegenstand und einer einheitlichen Methodik.
Feyerabend und seine Meinung zu Lakatos´ Forschungsprogrammen
Feyerabend bezeichnet die Methodologie der Forschungsprogramme als einen weiteren Versuch, Gesetz und Ordnung  in der Wissenschaft aufrechtzuerhalten und "die Zahl der Freunde der Vernunft zu vermehren und zweifelnden besorgten Rationalisten den Rücken zu stärken".
Die Vernunft könne Lakatos mit seinem "verkleideten Anarchismus" aber nicht retten. Feyerabends Ausweg ist sicherlich der radikalste:
"Der einzige Grundsatz, der den Fortschritt nicht behindert, lautet: Anything goes!"  (1977)
Positive Heuristik
Diese bezieht sich auf die Forschungswege, die beschritten werden sollen.
Mit einer positiven Heuristik ausgerüstet soll der Forscher widersprechende Daten erst einmal ignorieren.  Somit kann vor allem groß angelegten Forschungsprogrammen Zeit gegenüber allzu schnellen Falsifikationen gegeben werden.
Ist jedoch keine progressive Problemverschiebung aufgrund zu starker Falsifikation mehr möglich, muss auch dieses Programm aufgegeben werden.
Negative Heuristik
Diese beinhaltet Regeln, die angeben, welche Forschungswege vermieden werden sollen.
Mit ihrer Hilfe wird gewissermaßen ein "harter Kern"  eines Forschungsprogramms festgelegt und tabuisiert. Dieser harte Kern wird mit einem "Schutzgürtel" von Hilfshypothesen umgeben, mit denen Falsifikationsversuche abgewehrt werden.
Degenerative Problemverschiebung
Hier wird eine alte Theorie immer stärker durch Falsifikation belastet und lässt sich nur noch durch immer neue "Ad-hoc-Hypothesen" retten.
Progressive Problemverschiebung
Hier werden alte Theorien durch gehaltvolle und bewährte neue Theorien ersetzt.
Methodologie wissenschaftlicher Forschungsprogramme (Imre Lakatos, 1974/1982)
Durch den Entwurf Methodologie wissenschaftlicher Forschungsprogramme hat Lakatos versucht, die Konzeption des raffinierten Falsifikationismus noch weiter zu differenzieren.
Es geht also nicht mehr um einzelne Theorien, sondern um eine Reihe aufeinander bezogener Theorien ("Forschungsprogramm").
Experimentelle physiologische Psychologie - Entwicklung (Schmidt, 1981)
Am Ende des 18. Jh. wurde das Maß für persönliche Reaktionsgeschwinidkeit entdeckt
Nachdem Mitte des 19. Jh. ein genau arbeitender Chronograph entwickelt wurde, konnte in Reaktionsexperimenten die genaue Abweichung jedes Beobachter vom wahren Wert bestimmt werden.
Im Jahr 1850 hatte Helmholtz erstmals die Leitungsgeschwindigkeit von Nerven gemessen
Klassische Reaktionsexperimente wurden vom dem niederländischen Physiologen Donders durchgeführt
Auch Wundt führte Reaktionszeitmessungen durch
Kuhnsche Phasenlehre
Kuhn verfasst ein Postskript, in welchem er dem Begriff Paradigma zwei Bedeutungen gibt. Welche?
disziplinäre Matrix
Musterbeispiel
Kuhnsche Phasenlehre - Kritik
Der Begriff "Paradigma" wird in 21 verschiedenen Bedeutungen verwendet (Mastermann, 1970) 
Es gibt Zirkeldefinitionen bei Kuhn.
Kuhnsche Phasenlehre
6. Phase
Das neue Paradigma.
Das neue Paradigma beginnt sich durchzusetzen und wird in der (vorläufig) letzten Phase so lange zur Grundlage einer neuen, normalen Wissenschaft, bis eine weitere Revolution das Paradigma erneut in Frage stellt.
Kuhnsche Phasenlehre
5. Phase
Wissenschaftliche Revolution.
Durch die Krise des alten Paradigmas und den Anwärter einer neuen Theorie wird diese Phase ermöglicht.
Kuhnsche Phasenlehre
4. Phase
Phase der Anomalien.
Hier taucht ein Theorieanwärter auf.
Unzufrieden mit den ad hoc-Modifikationen der Theorie suchen einzelne Wissenschaftler oder Gruppen nach neueren Theorien, die in der Lage sind, aogenannte Anomalien, also Erscheinungen, die mit dem bisherigen Paradigma unvereinbar waren, zu erklären.
Kuhnsche Phasenlehre
3. Phase
Die Krise.
Das Paradigma erweist sich als unbrauchbar, um wichtige Rätsel zu lösen.
Kuhnsche Phasenlehre
2. Phase
Die normale Wissenschaft.
Kann durch zwei Arten entstehen, entweder durch wissenschaftliche Revolution oder durch den Übergang von der Proto- zur normalen Wissenschaft.
Kennzeichen sind hier das Rätsellösen und die Aufräumarbeit, ABER nicht neue Phänomene zu finden!
Kuhnsche Phasenlehre
1. Phase
Die prä-/vorparadigmatische Phase oder Proto-Wissenschaft.
Hier wird noch nach einem Paradigma gesucht und Kennzeichnung ist die Suche nach brauchbaren Methoden, Problemen und Lösungswegen.
Kuhnsche Phasenlehre nach Thomas Kuhn (1962)
6 Phasen
Prä- oder vorparadigmatische Phase oder Proto-Wissenschaft
Normale Wissenschaft
Krise
Phase der Anomalien
Wissenschafltiche Revolution
Das neue Paradigma
Kritische oder dialektische Theorieansätze:
Grundlegende Positionen
Wertproblematik

"Emanzipation" und andere historisch begründete Werte sind eingeschlossen


Verhältnis von Wissenschaft und Gesellschaft

Wissenschaft als gesellschaftlicher Produktionsfaktor mit sozialkritischer Funktion
Neopositivistische bzw. empirisch-analytische Theorieansätze:
Erkenntnismittel (Methodologie)
Denkmethoden

Logischer Empirismus, Kritischer Rationalismus


Tätigkeit des Wissenschaftlers

Beschreiben, Erklären, Prognose (Kritik-Kontrolle der Erfahrung)


Ansätze

strukturell-funktionale


Forschungsmethoden und -techniken

Regeln und Techniken der empirischen Sozialforschung
Kritische oder dialektische Theorieansätze:
Erkenntnismittel (Methodologie)
Denkmethoden

Dialektik, Hermeneutik


Tätigkeit des Wissenschaftlers

kritisch konfrontieren und politisch wirken (Kritik-Korrektur der Erfahrung


Ansätze

kritisch-historische und "kritisch-empirische"


Forschungsmethoden und -techniken

historisch-ökonomische, ideologiekritische Analyse mit empirischer Sozialforschung als Hilfsmittel
Kritische oder dialektische Theorieansätze:
Erkenntnis-Ziel, Erkenntnis-Interesse, Erkenntnis-Gegenstand
Erkenntnis-Ziel

historisches Gesetz, Gesellschaftskritik


Erkenntnis-Interesse

emanzipatorisches (Selbstreflexion)


Erkenntnis-Gegenstand

Gesellschaft
Neopositivistische bzw. empirisch-analytische Theorieansätze:
Grundlegende Positionen
Wertproblematik

Streben nach Wertfreiheit (zumindest im Forschungsprozess)


Verhältnis von Wissenschaft und Gesellschaft

Trennung (wertneutrale Aufklärung)
Neopositivistische bzw. empirisch-analytische Theorieansätze:
Erkenntnis-Ziel, Erkenntnis-Interesse, Erkenntnis-Gegenstand
Erkenntnis-Ziel

nomothetische Sätze; technologische Anweisungen


Erkenntnis-Interesse

technisches (Verfügung über vergegenständlichte Prozesse)


Erkenntnis-Gegenstand

Verhalten von Individuen, Gruppen, Organisationen
Normativ-ontologische Theorieansätze:
Grundlegende Positionen
Wertproblematik

Einschluss ontologisch und anthropologisch begründeter Werte


Verhältnis von Wissenschaft und Gesellschaft

Sinngebung: Aufklärung als konservatives Moment, Ratgeber
Normativ-ontologische Theorieansätze:
Erkenntnismittel (Methodologie)
Denkmethoden

Hermeneutik, Phänomenologie, Verstehende Psychologie


Tätigkeit des Wissenschaftlers

wissenschaftliches Nach- und Vordenken, Verstehen


Ansätze

historisch-genetische, ideengeschichtliche


Forschungsmethoden und -techniken

Quellen- und Textkritik, historisch-philosophische Argumentation
Normativ-ontologische Theorieansätze:
Erkenntnis-Ziel, Erkenntnis-Interesse, Erkenntnis-Gegenstand
Erkenntnis-Ziel:

idiographische Beschriebung, praktischer Rat


Erkenntnis-Interesse:

praktisches (Konsensus von Handelnden)


Erkenntnis-Gegenstand:

Sinn und Wesen von Staat, Gesellschaft, Mensch, Educandus usw.
Klaus Holzkamp - Zwischen zwei Extremen
Klaus Holzkamp steht in der Reihe der marxistisch orientierten Theoretiker zwischen zwei Extremen.
Er hält eine Kritische Psychologie als marxistische Individualwissenschaft für möglich und notwendig, ordnet sie jedoch der marxistischen gesellschaftlich-historischen Analyse unter.
Kritik der Kritischen Psychologen an der Bürgerlichen Psychologie, u.a. von Holzkamp
1.
Die bürgerliche Psychologie arbeitet mit der Fiktion des aus seinen gesellschaftlichen Bezügen herausgelösten Individuums ( --> Experiment). ...
2.
Die Theorien der bürgerlichen Psychologie sind beliebig, Theoriegeschichte nimmt sich daher wie ein Wechsel von Moden dar.  ...
Kritische Psychologie nach Holzkamp
Kritische Psyychologie steht in der Holzkamp-Schule für die marxistisch fundierte psychologische Forschung und Praxis.
Sowohl Inhalte, Methoden und Anwendungen der "bürgerlichen" Psychologie wird von der Kritischen Psychologie kritisiert.
Positivismusstreit
Wissenschaftstheoretische Diskussion zwischen Vertretern der Frankfurter Schule (Adorno, Marcuse, Habermas) mit Vertretern des Neopositivismus wie Popper und Albert.
Popper und Albert bezogen sich im diesem sogenannten Positivismusstreit zum Teil auf den früher ausgetragenen Werturteilsstreit.
Die Vertreter der Frankfurter Schule versuchten, im Positivismusstreit herauszustellen, dass jeder Theoriebildung immer schon ein Erkenntnisinteresse vorausgehe (Habermas) und dass Theorien von Herrschaftsinteressen durchsetzt seien (Adorno).
Werturteilsstreit
Max Weber (1864-1920) forderte die Trennung von Werturteilen und wissenschaftlichen Sätzen.
Frankfurter Schule
Diese versuchte, die Gesellschaftstheorie von Marx philosophisch , historisch und psychoanalytisch neu zu interpretieren.
Vertreter:

Theodor W. Adorno (1903-1969)
Erich Fromm (1900-1980)
Max Horkheimer (1895-1973)
Herbert Marcuse (1898-1979)
Jürgen Habermas (1929-heute)
Belastetheitsgrad (Holzkamp, 1972)
Je höher der Belastetheitsgrad einer Theorie ist, d.h. je mehr nur durch Exhaustion eine Annahme aufrechterhalten werden kann,  um so mehr verringert sich ihr "empirischer Wert" bzw. ihr "Realisationsgrad".
Konstruktivismus
"Eindeutigkeit" statt "Wahrheit"
Im Konstruktivismus ist der Anspruch, die Wahrheit erkennen zu können, aufgegeben worden, es geht hier nur noch um den "Willen zur Eindeutigkeit".
Holzkamp unterscheidet hierbei zwischen dem Streben nach systemimmanenter und systemtranszendenter Eindeutigkeit.
Konstruktivismus
Dominanz der Theorie gegenüber der Empirie
Im Konstruktivismus hat die Theorie eine absolute Dominanz gegenüber der Empirie. So ist auch konsequenterweise jeglicher Anspruch darauf, die "Wahrheit" erkennen zu können, aufgegeben worden.
Stattdessen geht es hier nur noch um den "Willen zur Eindeutigkeit". (Holzkamp, 1972)
Exhaustion
Da nie mit Sicherheit entscheidbar ist, ob eine Theorie fehlerhaft oder bei ihrer experimentellen Überprüfung Fehler gemacht wurden, kann man widersprechende empirische Ergebnisse mit entsprechender Phantasie und Kreativität immer irgendwelchen "Störquellen" zuschreiben.
Es werden alle Möglichkeiten ausgeschöpft, eine Theorie oder Hypothese vor der Falsifikation zu retten.
Durch Exhaustion werden Theorien der Realität gegenüber immunisiert, ihr Scheitern wird unmöglich.
Popper2
Raffinierter Falsifikationismus
Bedeutsam sind hier die Konzepte

empirischer Gehalt (Informationsgehalt) und
Wahrheitsnähe.

Diese stehen anstelle der Widerlegung im Vordergrund.
Eine Theorie wird nur dann aufgegeben, wenn gleichzeitig eine Alternativtheorie mit höherem Wahrheitsgehalt und höherer Bewährung (Wahrheitsnähe) existiert.
Popper1
Naiver Falsifikationismus
Hiernach kann man eine Theorie zwar nicht endgültig empirisch widerlegen, trotzdem soll die Falsifikation einer Theorie im Allgemeinen als endgültig betrachtet werden.
Popper0
Dogmatischer Falsifikationismus
Man kann mit Wissenschaft zwar nicht beweisen, aber man kann Theorien widerlegen.
Der Fortschritt der Wissenschaft vollzieht sich über kühne Theorieentwürfe, die durch endgültige Widerlegungen falsifiziert und durch noch kühnere Theorien ersetzt werden. Diese Position würde voraussetzen, dass es für die Falsifikation absolut "wahre" Basissätze gibt - eine Auffassung, die Popper selbst für unhaltbar erklärt.
Popper selbst hat diese Fassung der Wissenschftslehre selbst nie so vertreten.
Falsifikationskonzepte
Drei verschiedene Konzeptionen nach Imre Lakatos (1974)
Popper0
Popper1
Popper2
Theorie, die falsifizierbar ist - Was muss sie beinhalten?
"Eine Theorie heißt "empirisch" bzw. "falsifizierbar", wenn sie die Klasse aller überhaupt möglichen Basissätze eindeutig in zwei nichtleere Teilklassen zerlegt:

in die Klasse jener, mit denen sie in Widerspruch steht, die sie "verbietet" (Klasse der Falsifikationsmöglichkeiten)
und in die Klasse jener, mit denen sie nicht in Widerspruch steht, die sie "erlaubt"

Oder kürzer:
Eine Theorie ist falsifizierbar, wenn die Klasse der Falsifikationsmöglichkeiten nicht leer ist."
(Popper, 1982)
Basissatz
Poppers Basissätze sind gewissermaßen die Nachfolger der Protokollsätze des logischen Empirismus.
"Basissätze sind also - in realistischer Ausdrucksweise - Sätze, die behaupten, dass sich in einem individuellen Raum-Zeit-Gebiet ein beobachtbarer Vorgang abspielt." (Popper, 1982)
Faslifikationsprinzip nach Popper
Nach der Popper muss der Forscher nicht versuchen, Theorien und Hypothesen zu belegen, sondern er muss versuchen, sie zu widerlegen.
Ist eine Theorie sehr häufig der "Bewährungsprobe" eines Falsifikationsversuches unterzogen worden, schlägt Popper vor, sie als "bewährt" zu bezeichnen, was jedoch nicht bedeutet, dass sie auch "richtig" oder "wahr" ist, weil sie theoretisch immer noch falsifiziert werden kann.
Kritischer Rationalismus
Wurde 1934/35 von dem damals 32jährigen Karl R. Popper mit seinem berühmten Buch "Logik der Forschung" (1934) begründet.
Vor allem steht der Kritische Rationalismus dafür, dass Hypothesen nicht mehr verifiziert, sondern falsifiziert werden sollen.
Verifikation von Hypothesen
Hypothesen sollen empirisch "verifiziert" werden.
Je häufiger dies gelingt, sich also eine Hypothese also empirisch bestätigen lässt, desto höher soll ihr Vorhersagewert für zukünftige Ereignisse sein.
Logischer Empirismus
Methode der empirischen Überprüfung
Induktion
Aber im Gegensatz zum naiven Empirismus wird die Induktion allerdings beträchtlich eingeschränkt. Es geht hier darum, den Geltungsanspruch hypothetischer Vorhersagen aufgrund von früher gewonnenen Beobachtungen zu begründen, also zu verifizieren.
Protokollsatz
Für den logischen Empiristen besteht Wissenschaft aus einem System von Sätzen, die zueinander nicht in Widerspuch stehen dürfen. Wie können derartige Satzsysteme mit der Realität in Beziehung gebracht werden?
Durch Protokollsätze!
Diese sind singuläre Sätze, die sich unmittelbar auf Beobachtungsdaten beziehen, die die Realität also "direkt" beschreiben sollen. Protokollsätze stellen damit die Verbindung zwischen den rein sprachlichen Satzsystemen und der Realität her.
Wiener Kreis
Begründer:

Carnap
Schlick 

Sie gelten als Vertreter des Logischen Empirismus.
Logischer Empirismus
Die logischen Empiristen erkannten, dass einem die Natur nicht sagen kann, was man an ihr beobachten soll. Der Forscher muss also schon vorher wissen, was er beobachten soll.
Wissenschaft beginnt also nicht mit der Erfahrung, sondern mit theoretischen Konzepten. 
Vertreter:

Rudolf Carnap (1891-1970)
Moritz Schlick (1882-1936)
Ludwig Wittgenstein (1889-1951)
Naiver Empirismus
Für den naiven Empiristen lassen sich mit Hilfe der Wissenschaft "wahre" Erkenntnisse über die Natur gewinnen. Über Beobachtung und Experiment werden Daten gesammelt, aus denen dann über Generalisierung, Abstraktionen usw Gesetzmäßigkeiten abgeleitet werden, welche dann im Idealfall "Naturgesetze" darstellen, die der Forscher nur "entdecken" muss.
Wird heute von keinem Wissenschaftstheoretiker mehr vertreten.
Die Position des englischen Positivismus wird als "naiver Empirismus" bezeichnet.
Dreistadiengesetz nach Comte
Die Entwicklung der Menschheit verläuft in drei verschiedenen Zuständen bzw. Stadien ab:

Dem theologisch bzw. fiktiven,
dem metaphysischen bzw. abstrakten und
dem wissenschaftlichen bzw positivistischen Zustand.

Erst im positivistischen Stadium hat die Menschheit den religiösen und den metaphysischen Aberglauben überwunden und das wissenschafltiche Denken erreicht.
Positivismus
Vorläufer der modernen empirisch-analytischen Wissenschaftsauffasung.
Der ältere Empirismus oder Positivismus geht wesentlich auf David Hume (1711-1776) und August Comte (1798-1857) zurück.
Comte forderte, von dem Gegebenen, vom Tatsächlichen, eben vom "Positiven" auszugehen.
nomothetisch
empirisch-analytisch
Geht auf den dt. Philosophen Wilhelm Windelband (1848-1915) zurück, der die auf die Gesetze zielende Methode der Wissenschaft als "nomothetisch" bezeichnete, auf der anderen Seite das Einzelne, Ideelle, geschichtlich hervorhebende Methode der Geisteswissenschaft als "idiographisch" bezeichnete.
Karl Jaspers
1883 - 1969
Arzt, Psychiater und Philosoph
Bevor er sich ganz der Philosophie zuwandte, bemühte er sich um die Erweiterung der Psychiatrie durch geisteswissenschaftliche Perspektiven.
Jaspers fordert in seiner "Allgemeinen Psychopathologie" (1913) eine sorgfältige Beschreibung von psychischen Störungen, wobei er zunächst von einer Diagnose der Entstehung dieser Störung absehen will.
Dieses Vergegenwärtigen seelischer Zustände sieht Jaspers als Phänomenologie an.
Verstehen nach Eduard Spranger
Spranger möchte aus einer ursprünglichen Phantasietätigkeit die ganze Struktur der Welt verstehen. Immer wieder spricht er von "Sinn", "Wert-Ganzes", "Sinn-Ganzes" usw.
Ohne dass jeweils ganz klar ist, was damit gemeint ist. Offensichtlich ist für Spranger, dass es einen übergeordneten Sinn menschlichen Handelns gibt, der durch intuitives Verstehen erschlossen werden kann.
Wilhelm Dilthey
1833 - 1911
Wird als Begründer der Verstehenden Psychologie angesehen. Er selber sprach von "Realpsychologie" (1865) und dann von "Beschreibender und zergliedernder Psychologie" (1894) und zuletzt von "Strukturpsychologie" (Nachlassfragment).
Für Dilthey ist Psychologie Erfahrungswissenschaft, wobei er sich ausdrücklich auf den Positivismus beruft.
Phänomenologie
Historisches Paradigma
Hermeneutischer Zirkel
Das Problem, dass historische Zeugnisse sich gegenseitig erhellen, und man eigentlich schon wissen muss, was man erst wissen will.
Ontologie
Ist die Seinslehre, derjenige Teil der Metaphysik, der eine Wissenschaft von den allgemeinsten Seinsbestimmungen sein will. Eine Logik des Wirklichen.
Normative Wissenschaft
Dies sind jene Wissenschaften, die die Normen und Werte menschlichen Handelns oder künstlerischem Schaffens als Grundlage und Maßstab anerkennen.
Normativ-ontologische Theorieansätze - 3 zentrale Begriffe
Hermeneutik (Kunst der Auslegung von Schriften)
Verstehende Psychologie
Phänomenologie
Hermeneutik
Textinterpretation
Vertreter der normativ-ontologischen Theorieansätze
Lersch
Wellek
Spranger
Bollnow
Dilthey
Klages
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
4. & 5. Kategorie
Reinterpretation bestehender Forschungsergebnisse
Datensammlung und Reanalyse bestehender Datensätze
Die Heuristiken der vierten und fünften Kategorie setzen voraus, dass man bereitsumfangreiche psychologische Kentnisse erworben hat und lassen sich beispielsweise beim Fall des Psychologiestudenten anwenden, der seine Bachelor-Arbeit schreibt.
Heuristiken, die darin bestehen, dass bestehende Forschungsergebnisse reinterpretiert werden, können z. B. immer dann angewendet werden, wenn sich die Ergebnisse verschiedener empirischer Studien zu einer Fragestellung widersprechen. In diesem Fall geht es dann darum, nach Erklärungen für diese Widersprüche zu suchen.
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
3. Kategorie
Komplexe konzeptuelle Analysen
Ein Beispiel ist die Analogiebildung: Diese soll anhand von der von Gigerenzer (1988) identifizierten "Tools-to-Theories"-Heuristik veranschualicht werden.
Bei "T-t-T" geht es im Kern um einen Analogieschluss, also um die metaphorische Übertragung eines Merkmals oder einer Struktur aus dem Bereich der "Tools" auf den Bereich der "Theories".
Es wurden also neue Theorien über kognitive Prozesse durch Analogiebildung gefunden, indem "Werkzeuge", mit denen ein Forscher ohnehin arbeitete, auf psychologische Fragestellungen übertragen wurden.
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
2. Kategorie
Einfache konzeptuelle Analysen
Hier besteht die Kernoperation darin, Konzepte oder Aussagen in einem Gedankenexperiment zu "manipulieren".
Beispiel:
Wenn man die Kausalitätsrichtung einer bisher bestehenden Hypothese umdreht, z.B. "der Konsum von gewalthaltigen Computerspielen erhöht die Aggressivität" würde dann resultieren "Aggressivität erhöht den Konsum von Computerspielen".
Oder eine Kausalitätsreversion, wie beispielsweise bei Festingers Theorie der kognitiven Dissonanz, wo anstelle der Hypothese "Einstellungsänderung führt zu Verhaltensänderung" die Hypothese "Verhaltensänderung führt zu Einstellungsänderung" untersucht wurde.
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
1. Kategorie

Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen
Diese Heuristiken innerhalb der ersten Kategorie erfordern die Identifikation und Hinwendung zu in irgendeiner Weise ungewöhnlichen oder provozierenden Phänomenen, die mit bisherigen Theorien gar nicht oder nur sehr schwer vereinbar sind.
McGuire nennt auch solche Heuristiken, die im sogenannten Grounded-Theory-Ansatz von Glaser und Strauss (1967) verwendet werden.
49 Heuristiken zur Generierung von neuen Hypothesen (McGuire, 1997)
Jeweils ein Beispiel aus den fünf Kategorien, die McGuire verwendet.
Die fünf Kategorien klassifizieren zunehmend komplexere Heuristiken und lauten:

Heuristiken, die Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen erfordern
Einfache konzeptuelle Analysen
Komplexe konzeptuelle Analysen
Reinterpretation bestehender Forschungsergebnisse
Datensammlung und Reanalyse bestehender Datensätze
Deduktion
Hier ist der Ausgangspunkt eine allgemeine Regel und ein spezifischer Fall und es wird auf eine Beobachtung geschlossen.
Regel: Alle Autos aus Deutschland sind zuverlässig.
Fall: Dieses Auto ist aus Deutschland.
------------------------------------------------------------------------
Schluss auf Beobachtung: Dieses Auto ist zuverlässig.
Abduktion (nach Peirce)
Es liegen eine allgemeine Regel und eine spezifische Beobachtung und der Schluss folgt auf einen spezifischen Fall:
Regel: Alle Autos aus Deutschland sind zuverlässig.
Beobachtung: Dieses Auto ist zuverlässig.
-------------------------------------------------------------------------
Schluss auf Fall: Dieses Auto kommt aus Deutschland.
Induktion
Hier geht man von einem spezifischen Fall und einer spezifischen Beobachtung aus und schließt auf eine allgemeine Regel.
Fall: Dieses Auto ist aus Deutschland.
Beobachtung: Dieses Auto ist zuverlässig.
------------------------------------------------------------------------------------
Schluss auf Regel: Alle Autos aus Deutschland sind zuverlässig.
Plötzliche Einfälle
In der Geschichte der Wissenschaft finden sich viele Beispiele, in denen Forscher durch plötzliche EInfälle , die ihnen meist unter entspannten Umstädnen "zuflogen", wissenschaftliche Probleme lösen konnten.
bed, bathroom, bicycle
Der so beschriebene entspannte Kontext ist eine von mehreren Bedingungen, die nach den anekdotischen Beobachtungen zu neuen Ideen führen können.
Zudem scheint es notwendig zu sein, dass man sich vorher intensiv mit einer Fragestellung oder einem Forschungsgebiet auseinandergesetzt hat und in dem entspannten Kontext eben gerade nicht über die Frage nachdenkt.
Inferenzstatistik
Schließende Statistik
Berechnung von Skalenwerten
Setzen sich zusammen aus der Addition von Einzelwerten oder durch komplexere Verfahren der Zusammenfassung.
Werden als Messwerte für das jeweilige Konstrukt jeder Person der Untersuchung für die weitere Auswertung zugeordnet.
Deskriptive Auswertung
Beinhaltet:

Häufigkeitsverteilungen der Merkmalsausprägungen
erste statistische Kennwerte
Fehler- und Plausibilitätsprüfung
Erfolgt nach Speicherung der Informationen.
Hier ist mindestens zu prüfen, ob die zu den einzelnen Variablen gespeicherten Werte innerhalb des Wertebereichs liegen, der vorgesehen ist, damit wenigstens eklatante Antwort- oder Eingabefehler aufgedeckt und behoben werden können.
Codierung
Ein Prozess der Informationstransformation, ist zum Teil mit einem Verlust an Detailinformation verbunden (vor allem bei "offenen" Antworten).
Eine eindeutige Zuordnung von Symbolen (i.d.R. Zahlen) zu bestimmten Merkmalsausprägungen bzw. qualitativen Informationen.
Durchführung der Untersuchung
Erfolgt nach der Ausarbeitung des Designs.

Rekrutierung von Probanden bzw. Untersuchungsgruppen
die genaue Auswahl des Untersuchungssettings
Bereitstellung von räumlichen Gegenheiten und technischen Hilfsmitteln
Schulung des Personals
notwendige rechtliche, inhaltiche und organisatorische Vorbereitungen
Analyseebene
Einzelne Personen
Gruppen
Organisationen, z.B. Schulen oder Betriebe, aber auch ggf. nur die Gebäude
Setting
Räumlich-organisatorische Umgebung
Treatment
Behandlungs- oder Interventionsmaßnahme
Design der Untersuchung (Untersuchungsplan)
Welche Personen sind als Adressaten bzw. Probanden der Untersuchung vorgesehen? Erfolgt eine Zufallsauswahl?
Ist ein Treatment vorgesehen und erfolgt es durch Dritte oder durch einen Versuchsleiter?
In welchem Setting soll die Erhebung der Variablen und in welcher ggf. das Treatment erfolgen? Muss eine "künstliche Welt" erschaffen werden? (z.B. wie bei Milgram)
In welchem Zeitraster findet die Untersuchung statt? (Ein oder mehrere Zeitpunkte?)
Sind Maßnahmen zur Kontrolle von Störfakoren vorgesehen?
Erhebungsinstrumente
standardisierter Fragebogen
psychologischer Test
systematisches Beobachtungsverfahren
Hypothetische Konstrukte
Psychologische Variablen
Diese können nicht durch einzelne Fragen oder Beobachtungen erfasst, sondern nur durch ein bestimmtes Instrumentarium adäquat gemessen werden.
Zusammenhangshypothesen
Bei diesen wird eine positive oder negative Kovariation zwischen zwei Variablen X1 und X2 postuliert, d.h. es wird behauptet:
Je größer der Wert eines Untersuchungsobjektes in der Variable X1 sei, desto größer ist auch der Wert in der Variable X2 (bei negativem Zusammenhang: Je größer der Wert in X1, desto kleiner der Wert in X2).
Unterschiedshypothesen
Diese Hypothesen beziehen sich auf Unterschiede in der Annahme von bestimmtem Verhalten in gleichen Situationen.
Zwei Typen von Untersuchungen
Untersuchungen des Typs 1
Hier kann die Entwicklung von konkreten, wissenschaftlichen Fragestellungen oder Hypothesen nur durch Anwendung von geeigneten theoretischen Modellen oder Konzepten auf einzelne Aspekte des gesamten Problems erfolgen.
Zwei Typen von Untersuchungen
Untersuchungen des Typs 2
Diese knüpfen an bisherige empirische Befunde und theoretische Konzepte bzw. an methodische Neuentwicklungen an, die z. B. eine genauere Überprüfung von Befunden oder Hypothesen erfordern bzw. ermöglichen.
Zwei Typen von Untersuchungen
Praktische Problemstellung (Typ 1)
Entwicklung und Überprüfung von Theorien (Typ 2)

Die hier verwendete Unterscheidung differenziert zwischen Untersuchungen, die primär die Analyse praktischer Probleme als Ziel haben und jenen forschungsorientierten, die primär der Weiterentwicklung von Theorien und/oder Untersuchungsmethoden dienen sollen.
Zwei Typen von Untersuchungen
2. Entwicklung und Überprüfung von Theorien
Sind jene Arbeiten, die an der Entwicklung und Überprüfung von Theorien ausgerichtet sind, und die an bereits vorliegende Befunde anderer empirischer Untersuchungen und/oder an Thesen verschiedener Theorien anknüpfen.
Zwei Typen von Untersuchungen
1. Praktische Problemstellung
Sind jene, die von einer praktischen Problemstellung ausgehend entstanden sind und durch Anwendung geeigneter theoretischer Konzepte auf einzelne Aspekte dieses Problems konkrete, praxisorientierte Fragestellungen bzw. Thesen entwickelt und untersucht haben.
Validität
Inwieweit misst das Instrument genau das, was es messen soll - und nicht auch anderes.
Ein schwierig zu quantifizierendes Gütekriterium.
Reliabilität
Messgenauigkeit
Objektivität
Den Grundprinzipien wissensschaftlichen Arbeitens entsprechend sollen die Ergebnisse eines Messverfahrens von der Person, die die Messung durchführt, unabhängig sein.
Güterkriterien von Messverfahren
Objektivität
Reliabilität
Validität
Skalentypen
qualitativ, nominal

Beispiele: Berufe, Geschlecht
erlaubte numerische Operation: x1 = x2


komparativ, ordinal

Beispiele: Bogardus-Skala sozialer Distanz, Schulnoten
erlaubte numerische Operation: x1 < x2 < x3


intervall

Beispiele: IQ-Skala, Celsius-Skala
erlaubte numerische Operation: x1 - x2 = x2 - x3


absolut, proportional

Beispiele: Häufigkeiten (absolut, relativ), Alter, Kelvin-Skala
erlaubte numerische Operation: x1 / x2 = x2 / x3
Bedeutsamkeitsproblem
Beinhaltet die Fragestellung, welche numerischen Operationen zulässig sind, ohne das die Eindeutigkeit verloren geht.
Diese Frage betrifft das sogenannte Skalenniveau der Messwerte, wobei das Skalenniveau Auskunft über die numerischen Operationen gibt, die bei den Messwerten zulässig sind, weil durch diese Operationen die interpretierbaren Relationen zwischen den Messwerten nicht verändert werden.
Repräsentationsproblem
Beinhaltet die Grundfrage jedes Messvorgangs.
Können relevante empirische Relationen zwischen den Merkmalsausprägungen verschiedener Untersuchungsobjekte erfasst und in Messwerten "abgebildet" werden?
Eindeutigkeitsproblem
Beinhaltet Fragen zur Qualität der Messung.
Inwieweit sind die empirischen Relationen zwischen den Merkmalsausprägungen eindeutig in den Relationen zwischen den Messwerten abgebildet?
Messen
Definition nach Wolf (1994)
Messen besteht in der Zuordnung von Zahlen zu den Merkmalsausprägungen von Objekten, wobei den mathematischen Beziehungen zwischen den Zahlen analoge empirische Beziehungen zwischen den Objekten entsprechen.
Skala Sozialer Distanz (Bogardus, 1925)
Die soziale Distanz erfasst Bogardus in 7 Stufen, die eine Dimension der Akzeptanz (vs. Ablehnung) von Mitgliedern einer anderen Gruppe bilden.
Die soziale Distanz zu einer bestimmten Gruppe wird weitgehend durch die gewünschte räumliche und/oder soziale Distanz operationalisiert.
HAWIE
Hamburg-Wechsler-Intelligenztest für Erwachsene
Beinhaltet 2 Hauptteile und 11 Untertests.
Datenerhebung im Internet - Probleme und Nachteile
höhere Abbruchquoten
oft nur partiell ausgefüllte Bögen
wiederholte Teilnahme durch dieselbe Person
Datenerhebung im Internet - Vorteile
Repräsentativität und Diversität
Internet-Stichproben sind im Hinbick auf soziodemografische Variablen wie Alter, Geschlecht und Berufsstand wesentlich diverser, umfangreicher und damit tendenziell auch repräsentativer als die in der Psychologie üblichen Studierenden-Fragebögen.
Internetstudien sind gut vergleichbar mit Studien, die auf traditionellen Methoden basieren.
Datenerhebung im Internet - Vorteile
Ökonomie
Kosten für Druck, Kopien oder u.U. postalische Versendung der Fragebögen und der Aufwand für die Lagerung entfallen bei Online-Fragebögen.
Auch sind die Bögen direkt in dem Medium gespeichert, in welchem die Auswertung stattfindet, es muss also keine Übertragung erfolgen.
Datenerhebung im Internet - Vorteile
Dokumentisierbarkeit als medieninhärentes Merkmal
Daten können nicht nur gespeichert, sondern auch im Hinblick auf Teilnahmezeitpunkt, Teilnahmedauer und andere Variablen dokumentiert werden.
Datenerhebung im Internet - Vorteile
Objektivität
Sowohl die Durchführung als auch die Auswertung sind von möglichen Verzerrungen und Fehlern, die durch den Versuchsleiter entstehen können, unabhängig und damit objektiv im Sinne der klassischen Testtheorie.
Datenerhebung im Internet - Vorteile
Automatisierbarkeit
Sowohl die Durchführung als auch in einem gewissen Grad die Auswertung kann automatisiert werden.
Einfache Statistiken können ebenfalls automatisiert werden.
Datenerhebung im Internet - Vorteile
Flexibilität
Es können multimediale Elemente eingesetzt werden.
Aufgrund der computergestützten Automatisierbarkeit können auch sogenannte adaptive Tests durchgeführt werden.
Datenerhebung im Internet - Vorteile
Asynchronizität und Alokalität
Internetbasierte Daten können unabhängig von Zeit und Raum erhoben werden.
Datenerhebung im Internet - Vorteile
Asynchronizität
Alokalität
Flexibilität
Automatisierbarkeit
ObjektivitätDokumentierbarkeit als medieninhärentes Merkmal
Ökonomie
Repräsentativität und Diversität
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
10. Psychophsyiologische Diagnostik
Diese betreffen solche im weiten Sinne körperlich-organismischen Veränderungen und werden mit Hilfe

elektropsysiologischer Registriermethoden

elektrodermale Aktivität, Herz-Kreislauf-Aktivität, Muskelaktivität, Hirnaktivität


biochemischer Messgrößen

Hormonspiegel im blut, immunbiologische Analyse des Speichels, Messung der regionalen zerebralen Durchblutung oder des regionalen zerebralen Stoffwechsels



erfasst.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
9. Fragebogen
Ein Fragebogen ist ein Erhebungsinstrument, bei dem festgelegte Antwortmöglichkeiten auf klar vorgegebene Fragen oder Feststellungen angekreuzt werden. (Mummendey, 2003)
Hier ist keine offene Beantwortung vorgesehen wie ein einem Interview.
Die am häufigsten eingesetzte Methode zur Erfassung von Persönlichkeitsmerkmalen sowie Motivations- sowie Interessensvariablen.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
8. Objektive Tests
Pawlik bezeichnet objektive Tests als anTestgütekriterien überprüfte Stichproben, z.B. von Leistungsaufgaben, über die eine Verhaltensstichprobe der untersuchten Person im interessierenden Merkmal erhoben und ausgewertet wird.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
7. Projektive Tests
Diese geben mehrdeutiges Reizmaterial vor (z.B. abstrakte Klecksbilder, mehrdeutige Bilder von Personen, frei gestaltetes Spielmaterila), welches von den Probanden bearbeitet, d.h. interpretiert, ergänzt oder gestaltet werden soll.
Im Kontext der Psychoanalyse entstanden, um Abwehrmechanismen zu umgehen und Zugang zu wichtigen psychologischen Informationen (z.B. Konflikte, Impulse) zu ermöglichen, welche unbewusst sind.
Umstritten, da Gütekriterien meistens nicht gegeben sind.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
6. Interview
Ein Interview ist eine zielgerichtete mündliche Kommunikation zwischen einem oder mehreren Befragern und einem oder mehreren Befragten, wobei eine Informationssammlung über das Verhalten und Erleben der zu befragenden Person(en) im Vordergrund steht. (Kessler, 1999)
Das in der psychologischen Berufspraxis am häufigstens eingesetzte Instrument.
Neben der standardisierten Beobachtung gilt das Interview als zweiter traditioneller Königsweg zumindest innerhalb der psychologischen Diagnostik.
FACS
Facial Action Coding System (Ekman & Friesen, 1976)
Hier sind mehrere sogenannte Action Units (AUs) definiert. Es handelt sich dabei um kleinste, gerade noch sichtbare mimische Veränderungen bzw. Bewegungseinheiten, z.B.

Heben der Augenbraue innen (AU1)
Runzeln der Kinnhaut (AU17)
Zusammenpressen der Lippen (AU23),

welche zunächst objektiv betrachtet werden. Erst in einem zweiten Schritt werden die Action Units mit Hilfe eines Auswertungsprogramms bestimmten Emotionen zugeordnet.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
5. Ausdrucksverhalten
Könnte auch der Verhaltensbeobachtung oder -beurteilung zugerodnet werden.
Ausdrucksverhalten umfasst u.a.:

Mimik
Stimme und Sprechweise
Ganzkörpermotorik
Handschrift
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
4. Verhaltensbeurteilung
Betrifft mehr oder weniger subjektive und summarische Einschätzungen und Bewertungen der Häufigkeit, Intensität und Ausprägungsform des eigenen Verhaltens oder des Verhaltens anderer Personen.
Wenn eine Person ihr Verhalten (oder das Verhalten anderer Personen) einschätzt, dann tut sie dies auf der Basis mentaler Repräsentationen des zumeist bereits vergangenen Verhaltens.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
3. Verhaltensbeobachtung
Wissenschaftliche Verhaltensbeobachtung ist im Gegensatz zur Alltagsbeobachtung

methodisch kontrolliert und systematisiert
muss sich an bestimmten Gütekriterien messen lassen
und ist zumeist mit einer quantitativ-statistischen Analyse der protokollierten Verhaltensdaten verbunden.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
2. Verhaltensspuren
Diese sind direkt beobachtbare Nachwirkungen (Produkte) menschlichen Verhaltens.
Psychologisch interessant ist, dass Verhaltensspuren mit Persönlichkeitsmerkmalen assoziiert sein können.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
1. Biografische und Aktuardaten
sozio-demografische Daten wie Alter, Geschlecht, Familienstand, welche reaktionsobjektiv erfasst werden können
objektive Daten wie Daten zur Lebensgeschichte, Schul- und Berufsbildung oder Krankengeschichte

Können mit einem speziellen biografischen Fragebogen erhoben werden.
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
(Alle 10)
Biographische und Aktuardaten
Verhaltensspuren
Verhaltensbeobachtung
Verhaltensbeurteilung
Ausdrucksverhalten
Interview
Projektive Tests
Objektive Tests
Fragebogen
Psychophsyiologische Diagnostik
10 Datenquellen umfassende Klassifikation von Pawlik (2006)
3 Kriterien zur Klassifikation von Datenquellen
Datenmodalität
erfassbare varianz
Reaktionsobjektivität
Komparationsforschung
Qualitative und quantitative Typenbildung
Um Werte zu quantifizieren, eignen sich hier statistische Methoden, z.B. die Cluster-Analyse, welche Typen bildet und Einzelfälle zu Typen zusammen fasst.
Komparationsforschung
Ziel
Bildung von z.B. Persönlichkeits-Typen, die durch ähnliche Merkmalsprofile oder Funktionsprinzipien gekennzeichnet sind
Komparationsforschung
Vergleich
Vergleich von Einzelfällen vor dem Hintergrund der interessierenden Merkmale und Funktionsprinzipien.
Merkmale können die Big Five sein, Funktionsprinzipien können Zusammenhänge sein, die bei bestimmten Personen bestehen.
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen
Komparationsforschung
Hier werden zwei oder mehrere Merkmale an vielen Individuen untersucht.
z.B. der Vergleich von Goethe und Schiller oder der Vergleich von Studierenden unterschiedlicher Studienfächer.
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen
Psychographie
Hier werden viele Merkmale an einer Person untersucht. Die Psychographie ist laut Stern nur eine Vorstufe, um Individualität bzw. Einzigartigkeit zu untersuchen.

Psychologische Analyse einer Person, z.B. Goethe oder eines Schulkindes.
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen
Korrelationsforschung
Hier wird der Zusammenhang zwischen zwei oder mehreren Merkmalen an vielen Individuen festgestellt.
Gibt es einen Zusammenhang zwischen Intelligenz und Studienerfolg oder zwischen Extraversion und Gesundheit?
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen
Variationsforschung
Hier wird ein Merkmal an vielen Individuen erfasst.
Wie variiert Intelligenz unter den Studierenden einer Uni?
Differentielle Psychologie nach William Stern (1911)
Vier Disziplinen
Variationsforschung
Korrelationsforschung
Psychographie
Komparationsforschung
Einzelfallstudie im qualitativen Paradigma
Der Forschungsprozess
Populationsauswahl

Je nach Fragestellung Auswahl von möglichst extrem gegensätzlichen oder ähnlichen Einzelfällen, wenn gleichartige oder kontrastierende Handlungsmuster identifiziert werden sollen


Datenerhebung

Interview, Gruppendiskussion, Beobachtung


Auswertung des Materials

Neue Ideen/Theorien generieren --> komparative Kasuistik: Typen, gemeinsame Merkmale der Einzelfälle und neue Hypothesen werden in einem Forschungsteam kommunikativ erarbeitet
Qualitative Methodologie
Merkmal: Kommunikativität
Alles ist sehr dialogisch, es werden Gruppendiskussionen geführt und auch bei der Validierung wird kommunikativ vorgegangen, z.B. diskutiert das Forschungsteam die Ergebnisse mit den Probanden.
Qualitative Methodologie
Merkmal: Interpretativität
Interpretation der alltagweltlichen Deutungen und Typisierungen.
Hier nimmt man eine hermeneutische Herangehensweise und es gibt Typenbildung.
Es wird versucht, aus verschiedenen Einzelfällen Gruppen zu bilden, in denen ähnliche Muster festgestellt werden könnten.
Qualitative Methodologie
Merkmal: Natürliche Alltagssituation
quantitativ: meistens nur im Labor, also in künstlicher Situation
qualitativ: hier sind natürliche Situationen gegeben

--> es kann aber auch jeweils anders herum sein!
Qualitative Methodologie
Merkmal: Offenheit
Im Hinblick auf

die Theorie
untersuchte Personen
Erhebungssituation
Weiterentwicklung hypothetischer Aussagen
Auswertung
Qualitative Methodologie
Einige Merkmale
Offenheit
Kommunikativität
Erhebung in natürlichen Alltagssituationen
Interpretativität

Es ist eine hermeneutische Herangehensweise, eine Typenbildung. Es wird versucht, aus verschiedenen Einzelfällen Gruppen zu bilden, in denen ähnliche Muster festgestellt werden könnten.
Einzelfalldiagnostik
Fragestellungen
Unterscheidet sich ein individueller Testwert von einer Vergleichs- oder Normstichprobe? z.B. ob Person A überdurchschnittlich intelligent ist.


Beispiel: IQ-Test, Ergebnis 105: Ist Person A jetzt überdurchschnittlich intelligent?


Unterscheiden sich die Summenscores von zwei Probanden voneinander? z.B. ob Person A intelligenter als B ist.


z.B. A 105 und B 110. Oberflächliche Schlussfolgerung: B ist intelligenter. ABER man muss den Standardmessfehler berücksichtigen, deswegen darf man nicht davon ausgehen, dass es sich um die wahren Werte handelt.


Unterscheiden sich die zu verschiedenen Zeitpunkten erhobenen Summenscores einer Person voneinander? z.B. ob die Depressivität von Person C nach einer Therapie bedeutsam geringer ist als vorher.

Man sollte nicht einfach von einem Testscore als wahren Wert ausgehen, sondern man muss Reliabilität, Standardmessfehler und kritische Differenzen berücksichtigen.
Einzelfalldiagnostik
Ausgangspunkt
Erfassung von Merkmalen einer Person mit standardisierten diagnostischen Instrumenten (Tests, Fragebögen)
Ausprägung auf Vergleichsdimensionen anstatt idiosynkratischer Merkmale

Als Beispiel:
Eine Person hat im HAWIE einen IQ von 113 erreicht. Was kann man daraus schließen?
Das Problem hier:
Ein individueller Test ist fehlerbehaftet, wenn die Reliabilität des zugrundeliegenden Tests unzureichend ist, da kein Test perfekt und genau misst, deswegen wäre es FALSCH:

Den beobachteten Testwert mit dem wahren Wert des Probanden gleichzusetzen.

Es wäre RICHTIG:

Einen Unsicherheitsbereich, in dem der wahre Wert vermutet wird und
ein Konfidenzintervall mit vorab festgelegter Irrtumswahrscheinlichkeit auf der Basis des Standardmessfehlers festzulegen.
Retest-Korrelation
Diese quantifiziert, inwieweit die Rangordnung von mehreren Personen einer Stichprobe in Bezug auf ein Merkmal über die Zeit gleich bleibt oder sich verändert.
Beispiel:



 
Extraversion zum Zeitpunkt t1
Extraversion zum Zeitpunkt t2


Personen
 
 


A
10
40


B
20
30


C
30
20


D
40
10
Q-Korrelation
Behandelt mehrere Merkmale innerhalb einer Person und ist eine idiographische Methode der Datenanalyse.
Beispiel:



 
Merkmale der Person A
beim Zeitpunkt


 
t1
t2


Merkmale
 
 


Extraversion
10
20


Offenheit
20
40


Gewissenhaftigkeit
30
60


Verträglichkeit
40
80
Repertory Grid Technik (Kelly, 1955)
Würdigung und Kritik
Eine Person konstruiert sich ihren eigenen idiosynkratischen Fragebogen

Normalerweise werden Fragen vom Forscher vorgegeben, wobei man nie weiß, wie relevant diese für die Vpn sind


Vergleichweise hoher Aufwand: Lohnt es sich?

Reicht nicht eventuell auch ein normaler Fragebogen?


Nach einer Studie von Grice (2004): Gridtests liefern idiosynkratische Selbstbeschreibungsdiemnsionen, die über die nomothetischen Dimensionen (Big Five) hinausgehen
Nach einer Studie von Watson und Watts (2001): Inkrementelle Validität personaler Konstrukte im Vergleich zu konventionell erfassten Persönlichkeitsmerkmalen bei der Vorhersage von emotionaler Labilität

Personale Konstrukte verbessern die Vorhersage im Vergleich zu normalen Fragebögen, so dass es sich lohnen kann, die Repertory Grid Technik anzuwenden.
Inkrementell
Bedeutet, dass eine Variable oder ein Verfahren Varianz aufklärt bei der Vorhersage über ein anderes Verfahren hinaus.
Triadenvergleich
Inwiefern ähneln sich zwei Elemente und unterscheiden sich einem dritten?
Dyadenvergleich
Wie unterscheiden sich die beiden Elemente?
Repertory Grid Technik (Kelly, 1955)
Idiographische Datenerhebungsmethode zur Erfassung des Konstruksystems einer Person.
Sie besteht aus insgesamt 3 Schritten:

Auswahl von 15-20 Elementen (z.B Personen), die für den interessierenden Gegenstandsbereich repräsentativ und für die Vpn persönlich bedeutsam sind
Erhebung der personalen Konstrukte durch Vorgabe der ausgewählten Elemente: Dyaden- oder Triadenvergleich
Einschätzung der Elemente auf dem erhobenen Konstrukt
Einzelfallstudien
Wann werden sie vor allem eingesetzt?
Wenn Gruppenstudien fast unmöglich sind, z.B. in der klinischen Psychologie, wenn die Fälle zu spezifisch sind
Als "Vorstudien" zur Hypothesengenerierung und Exploration

Wenn man eine Fragestellung hat und nicht genau weiß, was die wichtigen Variablen sind, dann guckt man zuerst auf Einzelfälle, um Hypothesen aufzustellen


Als Operationalisierungshilfe

Meint, dass man das Treatment vorher an Einzelfällen ausprobiert (meistens vertraute Personen), um Rückmeldungen zu erhalten, um dadurch die Operationalisierung des Experiments sicher zu stellen


Zur Illustration, Verdeutlichung und Plausibilisierung von Befunden auf Aggregatsebene
Mittelwertsfalle
Ungerechtfertigte und falsche "Idiographisierung" von nomothetischen Befunden/Unterschieden auf Aggregatsebene.
Korrelationsfalle
Ungerechtfertigte und falsche "Idiographisierung" von Befunden über Zusammenhänge auf Aggregatsebene.
Beispiel:
Intelligenz korreliert positiv (z.B. r = .50) mit Studienerfolg.
Nicht immer ist nur Intelligenz entscheidend für den Studienerfolg, sondern auch andere Komponenten wie Motivation, Gewissenhaftigkeit, soziale Faktoren oder Zeit, welche man hat.
Idiographisierung
Ein Beispiel für eine falsche.
John hat einen ganz bestimmten problematischen familiären Hintergrund


70% mit demselben familiären Hintergrund werden kriminell


FALSCH: John wird mit 70%iger Wahrscheinlichkeit kriminell

Nicht nur diese eine Variable (familiärer Hintergrund) ist ausschlaggebend, sondern es ist ein Durchschnittswert, andere Sachen entscheiden auch mit.
Strukturgleichungsmodell
Dieses umfasst ein Messmodell und ein Strukturmodell.
Das Messmodell spezifiziert die Beziehungen zwischen den beobachteten Variablen und den hypothetischen Konstrukten.
Das Strukturmodell beschreibt die Zusammenhänge zwischen den theoretischen Konstrukten.
Ein Strukturgleichungsmodell ist also ein Pfadmodell, welches ein Messmodell enthält.
Pfadmodell
Dieser Begriff wird weiter gefasst als die Pfadanalyse und schließt grafische Darstellungen von Strukturgleichungsmodellen (oder gar Faktorenanalysen) mit ein.
Pfadanalyse
Diese basiert lediglich auf manifesten Variablen, weil in dieses statistische Verfahren - als mehrfache Regressionsanalyse - kein Modell zur Messung von latenten Variablen integriert bzw. integrierbar ist.
Indirekte Effekte
Dies sind Zusammenhänge zwischen zwei Variablen, die von einer oder mehreren anderen Variablen mediiert werden.
Direkte Effekte
Dies sind unvermittelte (d.h. unmittelbare) Zusammenhänge zwischen einer unabhängigen und einer abhängigen Variable.
cross-lagged-panel design
Hier werden mindestens 2 Variablen zu 2 verschiedenen Messpunkten erhoben.
Es lassen sich zwei verschiedene synchrone Korrelationen, zwei Autokorrelationen und zwei zeitverzögerte Kreuzkorrelationen berechnen.
Konfirmatorische Faktorenanalyse
Hier wird die Hypothese geprüft, dass eine bestimmte Faktorenstruktur auch in weiteren Stichproben mit den gegebenen Variablen/Items gilt bzw. zutrifft.
Faktor
Ausgehend von den Korrelationen zwischen gemessenen Variablen wird eine synthetische, latente Variable konstruiert, die mit allen Variablen so hoch wie möglich korreliert: Der Faktor.
Markiervariablen
Das sind diejenigen Items, die am höchsten auf einem Faktor laden. 
Sie werden zur Interpretation des Faktors herangezogen, also um inhaltlich auszudrücken, was ein Faktor erfasst.
Ladungen
Bestimmte Indexzahlen, die angeben, wie gut eine Variable zu einer Variablengruppe bzw. zu einem Faktor passt.
Vereinfacht: Sie sind die Korrelationen einer einzelnen Variable (Items) mit einem Faktor.
Reliabilitäts-Validitäts-Dilemma
Werden Merkmale sehr ungenau gemessen, dann kann es sein, dass sie nur sehr niedrig oder gar nicht interkorrelieren, obwohl ein Zusammenhang besteht, der bei höherer Messgenauigkeit aufgedeckt werden könnte.
Allerdings kann die anschließende Orientierung an der Optimierung der Messgenauigkeit zu einer zu starken Homogenisierung eines Messinstruments führen. Es wird dann nur ein sehr schmaler Merkmalsbereich erfasst und die Korrelation mit anderen Variablen fallen dann auch wieder niedriger aus.
Aggregationsprinzip
Nach diesem liefert die Summe mehrerer (miteinander korrelierender) Messungen eine stabilere und repräsentativere Schätzung eines Merkmals als eine einzelne Messung.
Informationsreduktion
Vorteile
Wenige Dimensionen können leichter weiterverarbeitet und kommuniziert werden
Aggregationsprinzip
Explorative Faktorenanalyse
Die hiermit verbundene Hypothese ist, dass sich die wechselseitigen Zusammenhänge vieler beobachteter bzw. gemessener Variablen durch wenige, in der Regel voneinander unabhängige Faktoren bzw. Dimensionen erklären lassen.
Um festzustellen zu können, was "irgendwie das gleiche" ist, was gemessen werden soll anhand von Items, die dieses aussagen, ist die explorative Faktorenanalyse indiziert.
Explorative Faktorenanalyse
Die hiermit verbundene Hypothese ist, dass sich die wechselseitigen Zusammenhänge vieler beobachteter bzw. gemessener Variablen durch wenige, in der Regel voneinander unabhängige Faktoren bzw. Dimensionen erklären lassen.
Um festzustellen zu können, was "irgendwie das gleiche" ist, was gemessen werden soll anhand von Itmes, die dieses aussagen, ist die explorative Faktorenanalyse indiziert.
Mediatorhypothese
3 Regressionsgleichungen, um die Bedingungen für die Mediatorhypothese zu prüfen
Regression des Mediators auf den Prädiktor
Regression des Kriteriums auf den Prädiktor
Regression des Kriteriums auf den Prädiktor und den Mediator

Mediation liegt vor, wenn der Effekt des Prädiktors auf das Kriterium in Gleichung 3 geringer ist als in Gleichung 2.
Bei vollständiger Mediation ist der Effekt des Prädiktors in Gleichung 3 Null.
Mediatorhypothese
3 Bedingungen, damit sie angenommen werden kann
Der Prädiktor ist mit dem angenommenen Mediator korreliert
Der potenzielle Mediator ist mit dem Kriterium korreliert
Wenn die Zusammenhänge zwischen "Prädiktor --> Mediator" und "Mediator --> Kriterium" kontrolliert werden, verringert sich die Korrelation zwischen Prädiktor und Kriterium und wird bei vollständiger Mediation Null.
Mediator-Variable
Erklärt den Prozess oder "Mechanismus", durch den eine Prädiktorvariable eine Kriteriumsvariable "beeinflusst".
Anders ausgedrückt ist ein Mediator eine Variable, die erklärt, warum ein Zusammenhang zwischen zwei anderen Variablen besteht.
Durch die Mediation wird der Zusammenhang zwischen Prädiktor und Kriterium erklärt.
Moderator-Effekt
Liegt vor, wenn die Beziehung wischen zwei Variablen von der Ausprägung einer dritten Variable abhängt.
Moderator
Variable, welche die Richtung und/oder die Enge des Zusammenhangs zwischen einer Prädiktor- und einer Kriteriumsvariable beeinflusst.
Entweder ist sie

qualitativ: z.B. Geschlecht

oder

quantitativ: z.B. Ausprägungen von Persönlichkeitsmerkmalen
Suppressor
Hierbei handelt es sich um eine Prädiktorvariable, die den Vorhersagebeitrag einer oder mehrerer anderer Variablen erhöht, indem sie für die Vorhersage irrelevante Varianzanteile unterdrückt.
Multiple Regression
Vorteile
Es können aus einer Vielzahl von Prädiktoren diejenigen bestimmt werden, die zur Vorhersage des Kriteriums einen substantiellen Beitrag leisten.
Es lassen sich Prädiktoren identifizieren, die im Kontext der multiplen Vorhersage redundant (d.h. mehrfach vorhanden) sind, obwohl sie eine bivariate Korrelation mit dem Kriterium aufweisen.
Multiple Regressionsrechnung
Das Ergebnis ist eine Gleichung zur Vorhersage der Kriteriumswerte und der multiple Korrelationskoeffizient, der den Zusammenhang zwischen den vorhergesagten und den tatsächlichen Kriteriumswerten quantifiziert.
Prädiktoren und Kriterien
Welche Unterscheidung entspricht der Unterscheidung zwischen diesen beiden?
Die Unterscheidung zwischen unabhängigen und abhängigen Variablen im Experiment.
Kriterien
Wenn der Zusammenhang zwischen mehreren Merkmalen zu einem oder mehreren weiteren Merkmal(en) untersucht werden soll, dann wird formal zwischen Prädiktoren, also Vorhersage-Variablen, und Kriterien, die vorhergesagt werden sollen, unterschieden.
Prädiktor
Vorhersage-Variable
Ipsativ-differentielle Stabilität
Was bedeuten hier ipsativ und differentiell?
ipsativ: weil es um eine Person geht
differentiell: weil das "Verharren" von Profilmerkmalen auf denselben Positionen über die Zeit bestimmt wird
Idiografische Variante
Hier wird über mehrere Merkmale innerhalb einer Person korreliert.
Also um die Stabilität bzw. Veränderung innerhalb eines individuellen Variablen-Profils.
Nomothetischer Anwendungsfall
Es wird festgestellt, ob die Rangordnung von mehreren Personen einer Stichprobe in Bezug auf ein Merkmal über die Zeit gleich bleibt oder sich verändert.
Differentielle Stabilität
Die zeitliche Stabilität interindividueller Unterschiede.
Also das "Verharren" von Personen auf denselben relativen Positionen innerhalb einer Gruppe über die Zeit.
Längsschnittdesign
In einem bivariaten Fall würde ein und dasselbe Merkmal bei allen Personen einer Stichprobe zu zwei verschiedenen Messpunkten erhoben werden.
Kommt vor allem in der Differentiellen Psychologie und Persönlichkeitsforschung zum Einsatz, wenn die zeitliche Stabilität von Eigenschaften ermittelt werden soll.
Korrelatives Querschnittdesign
Die Erhebung der Merkmalsausprägungen erfolgt nur zu einem bestimmten Zeitpunkt.
Korrelationskoeffizient
Kann Werte zwischen +1 und -1 annehmen.
Wert +/- .10 = schwacher Zusammenhang
Wert +/- .30 = mittlerer Zusammenhang
Wert +/- .50 = starker Zusammenhang (nicht perfekt, aber in der Psychologie stark)
Wird genau +1 oder -1 ermittelt, dann liegt ein perfekter linearer und damit nicht mehr stochastischer, sondern deterministischer Zusammenhang vor.
Derart hohe Korrelationen kommen empirisch in der Psychologie aus verschiedenen Gründen so gut wier nie vor, da Erleben und Verhalten immer mit multiplen Bedingungen assoziiert ist, die zudem in Wechselwirkung treten können.
Zusammenhänge
Welche drei Arten eines Zusammenhangs gibt es?
Art des Zusammenhangs: linear oder nicht-linear
Richtung des Zusammenhangs: positiv oder negativ
Enge des Zusammenhangs: Wert zwischen +1 und -1 des Korrelationskoeffizienten
Zusammenhänge
Welche drei Arten eines Zusammenhangs gibt es?
Art des Zusammenhangs: linear oder nicht-linear
Richtung des Zusammenhangs: positiv oder negativ
Enge des Zusammenhangs: Wert zwischen +1 und -1 des Korrelationskoeffizienten
Nicht-linearer Zusammenhang
Beispiel:

Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche?

Ein nicht-linearer Zusammenhang würde hier vorliegen, wenn die durchschnittliche Internetnutzungszeit bis zu einem bestimmten Alter abnimmt, im höheren Erwachsenenalter dann aber wieder zunimmt.
Linearer Zusammenhang
Ein positiver oder negativer linearer Zusammenhang ist der Fall, wenn hohe Ausprägungen des einen Merkmals mit hohen bzw. niedrigen Ausprägungen des anderen Merkmals assoziiert sind.
Beispiel:

Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche?

z.B. negativ: Je höher das Alter, desto niedriger die durchschnittliche Internetnutzungszeit.
Gerichtete Zusammenhangshypothesen
Diese nehmen eine Assoziation zwischen zwei Merkmalen an und spezifizieren die Richtung der Assoziation, ob sie positiv oder negativ ist.
Beispiel:

Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche?

Folgerung:
Das Alter hängt negativ mit der durchschnittlichen Internetnutzungszeit zusammen oder anders formuliert --> Höheres Alter geht mit niedriger Internetnutzung einher!
Ungerichtete Zusammenhangshypothese
Ungerichtete Zusammenhangshypothesen nehmen lediglich eine Assoziation zwischen zwei Merkmalen an und spezifizieren nicht, ob es sich dabei um einen negativen oder positiven Fall handelt.
Beispiel:

Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche?

Folgerung: Alter und Internetnutzung hängen zusammen!
Bivariate Zusammenhangshypothesen
Diese betreffen vermutete Assoziationen zwischen zwei Merkmalen.
Beispiel:

Gibt es einen Zusammenhang zwischen dem Alter und der durchschnittlichen Internetnutzungszeit pro Woche?
Verfahren zur Analyse von Zusammenhängen
Vor- und Nachteil gegenüber experimentellen Designs
Vorteil:

 Es können Zusammenhänge zwischen vielen Variablen untersucht werden

Nachteil:

 Korrelative Zusammenhänge dürfen nicht kausal interpretiert werden
Korrelationsforschung
Was wird untersucht?
Der Zusammenhang zwischen zwei oder mehreren Merkmalen.
Es geht hier um Zusammenhänge zwischen bereits existierenden Variationen zwischen Merkmalen von Individuen, sozialen Gruppen oder anderen interessierenden Merkmalsträgern.
Evaluationsforschung
Warum werden Standards entwickelt? 2 Gründe
Die Entwicklung solcher Standards ist

Ausdruck fachlicher und politischer Auseinandersetzungen, die insbesondere im Kontext der Evaluation bildungs- und sozialpolitischer Reformprogramme stattgefunden haben, und die dem Image dieser Art sozialwissenschaftlicher Politikberatung erheblich geschadet haben und
Ausdruck der Bemühungen der Markt- und Meinungsforschungsinstitute um die Definition von Mindeststandards, die den Auftraggebern Nützlichkeit und Qualität von Umfragen und Evaluationen garantieren sollen.
Evaluationsforschung
Standards der APA
Nenne die 4 Dimensionen
Nützlichkeit
Durchführbarkeit
Fairness
Genauigkeit
Evaluationsforschung

Dilemmata (Patry & Hager, 2000)
3. Dilemma der Allgemeinheit vs. Konkretheit
Dieses methodologische Dilemma betrifft sowohl die Konzeption als auch die Evaluation einer Interventionsmaßnahme:
Je abstrakter die Formulierung ist, desto weiter kann der potentielle Anwendungsbereich einer Interventionsmaßnahme angesehen werden, wobei sich allerdings bei jeder Anwendung die Frage stellt, in welcher Form man die abstrakten Handlungsanweisungen konkretisiert bzw. operationalisiert.
Auf der anderen Seite weisen sehr konkret gehaltene Handlungsanweisungen den Nachteil auf, dass das Programm nur unter ganz bestimmten Randbedingungen anwendbar ist, nämlich denen, für die die konkreten Handlungsanweisungen gedacht sind.
Evaluationsforschung

Dilemmata (Patry & Hager, 2000)
2. Dilemma der Wissenschaftlichkeit
Das Ziel wissenschaftlicher Evaluationsversuche kann auf einer abstrakten Ebene also darin gesehen werden, vor und während eines Versuchs die Wahrscheinlichkeit zu maximieren, dass

eine zutreffende Hypothese sich bewähren kann
und dass eine nicht-zutreffende Hypothese sich nicht bewähren kann - also falsifiziert werden kann.

Folgerung:
Jede Evaluation muss systematisch geplant und dokumentiert werden - insbesondere das Treatment sowie die Vielzahl der Bedingungen, unter denen die Evaluation stattgefunden hat, die eventuellen zwischenzeitlichen Ereignisse und die Eigenschaften der Durchführenden.
Evaluationsforschung

Dilemmata (Patry & Hager, 2000)
1. Auswahl-Dilemma
"Welche Programme sollen angesichts der limitierten Mittel evaluiert werden?"
Dabei kann es aus Sicht wissenschaftlicher Beratung andere Kriterien für die Auwahl geben als aus Sicht der Praxis.
Evaluationsforschung
Dilemmata (Patry & Hager, 2000)
Auswahl-Dilemma
Dilemma der Wissenschaftlichkeit
Dilemma der Allgemeinheit vs. Konkretheit
Zeitreihenanordnung
Einfache und mehrfache
Besteht diese nur aus der Versuchsgruppe, wird das Design als einfache Zeitreihenanordnung bezeichnet, sonst als mehrfache.
Zeitreihenanordnung
Hier wird der Effekt des Treatments nicht primär über den Gruppenvergleich bestimmt, sondern durch Vergleich des - über mehrere Messzeitpunkte bestimmten - durchschnittlichen Wertes der abhängigen Variable bei der Person i vor dem Treatment mit dem durchschnittlichen Wert derselben Person nach dem Treatment.
Zeitreihenanalyse
Bezeichnet eine Gruppe statistischer Verfahren, die zur Auswertung von vielfach wiederholten Messungen (n>9) angewendet werden.
Im Fokus stehen die intraindividuellen Schwankungen der Messwerte, die bei wiederholten Messungen von Variablen bei den einzelnen Probanden bestimmt werden können.
Evaluationsforschung
Warum ist sie ein wichtiges Anwendungsgebiet quasi-experimenteller Anordnungen?
Der Bereich der Evaluation ist ein wichtiger beruflicher Handlungsbereich für Psychologen


Der Konzeption und Evaluation von Interventionsmaßnahmen kommt eine hohe Verantwortung zu, da hier oftmals viele Personen von betroffen sein können
Evaluationsforschung
Typische Fragestellungen psychologischer Evaluationsforschung
Welche generellen und welche differentiellen Effekte hat die Maßnahme X bei den teilnehmenden Personen bzw. Gruppen?
Welche Effekte hat die Maßnahme X für den Betrieb bzw. die Institution, in der die Untersuchung durchgeführt wird?
Welche Personen nehmen freiwillig an der Maßnahme X teil?
Evaluationsforschung
Diese untersucht Zusammenhänge zwischen bestimmten Maßnahmen und erwarteten Effekten.
Sie setzt also voraus, dass Maßnahmen durchgeführt worden sind, die zur Veränderung von Organisationsstrukturen oder -abläufen, zur Schulung oder anderweitigen Beeinflussungen von Personen oder zur Einführung neuer technischer Systeme im Alltag dienen sollen.
Evaluation
Ist jede systematische Beurteilung eines Objekts oder Vorgangs, insbesondere jede Qualitätsbeurteilung.
Beispiele:

im technischen Bereich:

die Prüfung der Abgaswerte bei Autos oder Heizungen


im sozialen Bereich:

eine Umfrage zur Kundenzufriedenheit in einem Hotel, Krankenhaus oder Urlaubsort


im wirtschaftlichen Bereich:

z.B. die Bilanz der jährlichen Umsätze und Neukunden von Handelsvertretern
Quasi-experimentelles Design
Verletzungen von drei Bedingungen eines echten Experiments. Welche?
Folgende Bedingungen werden verletzt:

Randomisierung der Probanden
Manipulation einer unabhängigen Variable bzw. Durchführung von Interventionsmaßnahmen
Weitgehende Kontrolle der Versuchsbedingungen
Quasi-experimentelles Design
Charakteristika
Die Zielgruppe des Treatments wird in vielen Fällen von der auftraggebenden Institution festgelegt. 
Das Treatment ist meist komplex, d.h. es besteht aus mehreren Komponenten und dauert über eine längere Zeitspanne hinweg.
Untersuchungen werden stets im "Feld" durchgeführt.
Vollständig ausbalanciertes Design
Welche Effekte können bestimmt werden?
Wenn alle möglichen Abfolgen der Treatments berücksichtigt werden (vollständig ausbalanciert), können folgende Effekte bestimmt werden:

die Haupteffekte jedes Treatments
die Haupteffekte jeder Person (durchschnittliche Abweichung vom Gesamtmittelwert)
Effekte der Reihenfolge bzw. Platzierung von Treatments (Interaktionseffekt von Treatment und Position)
Cross-Over-Design
Es werden alle Treatments - in verschiedener Reihenfolge - an allen Probanden durchgeführt.
Untersuchung der Effekte mehrerer verschiedener Maßnahmen bzw. Treatments
2 Möglichkeiten
Es werden ebenso viele Untersuchungsgruppen gebildet, wie Maßnahmen vorgegeben sind.
Es werden alle Treatments - in verschiedener Reihenfolge - an allen Probanden durchgeführt.
carry-over-effects
Wenn keine Folgeeffekte des Treatments auf die Durchführung und Effekte des nachfolgenden Treatments zu erwarten sind.
Lateinisches Quadrat
Ein Design, welches die folgenden drei Bedingungen mit genau m verschiedenen Untersuchungsgruppen erfüllt:

jedes Treatment muss einmal jede von m möglichen Positionen einnehmen
jedes Treatment muss einmal jedem anderen Treatment vorangehen
jedes Treatment muss einmal jedem anderen Treatment folgen

Jeder Anordnung werden per Randomisierung gleichviele Probanden zugeteilt.
ex-post-facto-Untersuchung
Wenn die Untersuchung von Effekten erst nach der Durchführung eines oder mehrerer Treatments geplant wird, und somit keinerlei Kontrolle von Störfaktoren erfolgt, sondern nur die Durchführung eines Nachtest.
Störfaktor Typ 2
Bezeichnung: Experimenteller Dropout
Erläuterung:

Ausfall von Probanden während der Untersuchung (--> allgemein die externe und gruppenspezifisch die interne Validität)

Beispiel:

Insbesondere bei mehrtägigen bzw. Langzeituntersuchungen
Störfaktor Typ 3
Bezeichung: Testeffekte
Erläuterung:

Einflüsse des Vortests auf das Verhalten während des Experiments oder beim Nachtest 

Beispiel:

Vortest als "advance organizer" bei Lehr-Lern-Untersuchungen
Trainingseffekte wiederholter Tests ("Testsophistikation")
Störfaktor Typ 4
Bezeichnung: Veränderung der verwendeten Hilfsmittel
Erläuterung:

Geringe zeitliche Stabilität der Geräte, Beobachter, Auswerter und/oder Testverfahren, die eingesetzt werden
Durch Wechsel der Messverfahren (zwischen Vor- und Nachtest)

Beispiel:

Verschleiß von Messgeräten
Veränderung der Handhabung von Kategorien bei Beobachtungen bzw. Testauswertungen
Unterschiede zwischen verschiedenen Methoden
Störfaktor Typ 5
Bezeichnung: Reaktive Effekte in der Untersuchung
Erläuterung:

Bewusstsein der Teilnahme an einer Untersuchung (--> interne Validität)

Beispiel:

Placebo- oder Hawthorne-Effekt
Störfaktor Typ 6
Bezeichnung: Zwischenzeitliches Geschehen
Erläuterung:

Einflüsse von außen während des gesamten Untersuchungszeitraumes t auf die abhängige Variable (z.B. Einstellung) 

Beispiel: 

Ergebnisse auf politischer oder institutioneller Ebene (z.B. Streik, Entlassungen, Gewaltverbrechen)
Störfaktor Typ 7
Bezeichnung: "Natürliche" Änderungsprozesse
Erläuterung:

Biologisch oder physiologisch bedingte Veränderungen, die im gesamten Untersuchungszeitraum t aller Untersuchungsgruppen auftreten

Beispiel: 

Konzentrationsverlust bei monotoner Arbeit, Hunger oder Anstrengung
Individuelle Entwicklung insbesondere bei Kindern und älteren Menschen
Störfaktor Typ 8
Bezeichnung: Statistische Regression
Erläuterung:

Statistisch zu erwartende Änderung des individuellen Messwertes durch die sogenannte "Regression zum Mittelwert"

Beispiel:

Insbesondere bei der Verwendung von Extremgruppen
Störfaktor Typ 1
Bezeichnung: Auswahlverfahren der Untersuchung
Erläuterung:

Auswahl der Probanden, die an der Untersuchung teilnehmen (--> externe Validität)
Aufteilung auf Versuchs- und Kontrollgruppe (--> interne Validität)

Beispiel:

Freiwilligkeit garantiert nicht Repräsentativität der Probanden
Falls Konfundierung mit Treatment: Randomisierung oder Parallelisierung, ggf. Vortest durchführen
Externe Validität
Verallgemeinbarkeit bzgl. Personen: Wann ist sie gerechtfertigt?
Für den Fall, dass die Personen als Zufallsstichprobe gewählt wurden, kann nach den Regeln der Wahrscheinlichkeitstheorie bei hinreichend großer Stichprobe eine Generalisierbarkeit von der Stichprobe auf die Grundgesamtheit gerechtfertigt werden.
Externe Validität
Als Externe Validität wird die Generalisierbarkeit der Untersuchungsergebnisse bezeichnet.
Drei Aspekte der Verallgemeinbarkeit:

bzgl. Personen:

Sind die Ergebnisse auf eine Art von "Grundgesamtheit" von Personen übertragbar?


bzgl. Treatments:

Sind die Ergebnisse auf ähnliche Treatments übertragbar?


bzgl. der realisierten Untersuchungsbedingungen:

Sind die Ergebnisse auf ähnliche Situationen übertragbar?
Interne Validität
Eine experimentelle Untersuchung gilt als intern valide

wenn die kausale Interpretation ihrer Ergebnisse inhaltlich eindeutig ist

wenn also ein aufgetretener Effekt (als Unterschied im Wert der abhängigen Variable) zwischen der Versuchs- und Kontrollgruppe eindeutig nur auf das Treatment zurückgeführt werden kann und der Einfluss von Drittvariablen kontrolliert oder ausgeschaltet wurde.
Dokumentation
Eine Dokumentation (z.B. per Video) kann im Hinblick auf besondere Vorkommnisse in einzelnen Untersuchungsgruppen ausgewertet werden (z.B. störende Geräusche von außen, falsche vs. geniale Erklärungen von begriffen bzw. Konzepten usw.).
Zweifaktorielles Design
Am Beispiel "Statistik: Lernen multimedial vs. konventionell und mit vs. ohne Diskussion"

Faktor A: Lernmaterial mit den folgenden Stufen:

A1: Lernen mit interaktiver multimedialer Lernumgebung
A2: Lernen mit gedrucktem Studienmaterial



 

Faktor B: individuelles vs. kooperatives Lernen

B1: rein individuelles Lernen ohne Diskussion
B2: Lernen mit täglicher Diskussionsphase



Daraus ergeben sich folgende 4 Treatments:

A1 + B1

A1 + B2

A2 + B1

A2 + B2
Doppelblind-Versuch
Dies ist die konsequenteste Art der Ausschaltung von Erwartungseffekten bei Probanden und Versuchsleitern.
Hier wird die Durchführung von Personen übernommen, die weder die Fragestellung noch die Unterscheidung zwischen Versuchs- und Kontrollgruppe kennen.
Auch die Probanden wissen nicht, zu welcher Gruppe sie gehören.
Versuchsleiter-Erwartungseffekt (oder auch: Rosenthal-Effekt, Pygmalion-Effekt)
Je umfangreicher die soziale Interaktion zwischen Versuchsleitung und Versuchspersonen ist, desto stärker kann - unbeabsichtigt - durch Blickkontakt, Gestik, Mimik, Körperhaltung und Betonung bei den Instruktionen eine Erwartungshaltung bei den Vpn vermittelt werden.
Hawthorne-Effekt
Dieser bezeichnet den Effekt, den das Bewusstsein der Versuchspersonen, an einer Untersuchung teilzunehmen, auf ihr Verhalten im Experiment hat (z.B. bzgl. Anstrengungsbereitschaft, Neigung zur Selbstdarstellung etc.).
Placebo-Effekt
Die Kontrollgruppe erhält auch eine "Art von Beschäftigung", welche auch als Treatment bezeichnet werden kann.
In der Psychologie werden der Kontrollgruppe meist konventionelle Methoden zur Verfügung gestellt, die Versuchsgruppe erhält neue Methoden zu Erforschung.
Viergruppenplan von Solomon
Dieser Untersuchungsplan setzt sich aus zwei einfacheren zusammen:

aus der Kontrollgruppenanordnung mit Vor- und Nachtest
aus der Kontrollgruppenanordnung nur mit Nachtest

und erlaubt deshalb eine weitestgehende Kontrolle der wichtigsten Störfaktoren.
Viergruppenplan:
R  O1  X  O2 (Versuchsgruppe mit Vor- und Nachtest)
R  O3      O4 (Kontrollgruppe mit Vor- und Nachtest)
R        X  O5 (Versuchsgruppe nur mit Nachtest)
R            O6 (Kontrollgruppe nur mit Nachtest)
Parallelisierung
Hierbei werden in einem Vortest diejenigen Variablen erhoben, nach denen parallelisiert werden soll.
Anschließend werden auf der Basis dieser Daten Paare von Personen ("matched pairs") - oder bei mehrern Versuchsgruppen sogenannte Blöcke von Probanden - gebildet, von denen jeweils eine Person per Zufall einer der Untersuchungsgruppen zugeordnet wird.
Symbole
R (Randomisierung)
O ("observation", Durchführung einer Erhebung von abhängigen/unabhängigen Variablen)
X (Durchführung des Treatments, bei meheren X1, X2, X3 usw.)

Beispiele:
X O1 (Versuchsgruppe mit Nachtest)
   O2 (Kontrollgruppe mit Nachtest)
oder
R O1 X O2 (Versuchsgruppe mit Vor- und Nachtest)
R O3    O4 (Kontrollgruppe mit Vor- und Nachtest)
Quasi-Experiment
Wenn keine Randomisierung, sondern nur die Realisation des Treatments erfolgt.
Es kann aber versucht werden, den Einfluss von Personenmerkmalen

durch deren Erfassung statistisch zu kontrollieren oder
durch Parallelisierung aller Untersuchungsgruppen im Hinblick auf mehrere Merkmale der teilnehmenden Personen zu reduzieren.
Konfundierung
Bezeichnet die Art der "Vermischung von Drittbariablen mit der systematisch variierten unabhängigen Variable".
Das bekannteste Verfahren zu Vermeidung ist das Randomisieren.
Störfaktoren
All jene Einflussfaktoren, die neben der experimentellen Ursache ebenfalls Unterschiede in der abhängigen Variable verursacht haben können - und somit Alternativerklärungen zur Hypothese des Experiments darstellen.
Messung
Grundlegender Bestandteil jedes Experiments ist die Messung der abhängigen Variable(n), die in der Versuchsgruppe durch "Herstellung" der Ursache beeinflusst werden soll und deshalb - in zeitlich adäquatem Abstand - nach dem Treatment erfolgen muss.
Randomisierung
Die Zuordnung der Personen zur Versuchs- und Kontrollgruppe erfolgt per Zufall.
Experimentelles Design
3 zentrale Anfoderungen
Die Rahmenbedingungen bzw. Settings müssen in der Versuchs- und Kontrollgruppe identisch sein.
Die Vpn als Teil dieser Settings müssen ind er Versuchs- und Kontrollgruppe aus derselben Grundgesamtheit stammen und exakt vergleichbar sein.
Versuchs- und Kontrollgruppe unterscheiden sich nur durch das Treatment, das nur in der Versuchsgruppe realisiert wird.
Kausale Beziehungen - Bedeutung für die Psychologie in Forschung und Praxis
In vielen Bereichen der sozialen und psychologischen Forschung erfolgt die Theorieentwicklung in Form von sogenannten Strukturgleichungsmodellen, in deren formalem Rahmen mögliche kausale Beziehungen zwischen den Variablen spezifiziert und empirisch geprüft werden.
Interventionsmaßnahmen sind in der psychlogischen Praxis Routine. Dadurch sollen gewüschte Effekt bei den betroffenen Personen erzielt werden. Dabei werden empirische Befunde und theoretisch begründete Annahmen über kausale Zusammenhänge zwischen besstimmten Maßnahmen und deren Effekten zugrunde gelegt.
Es sind keine detaillierten theoretischen Konzepte notwendig, sondern technologische Regeln, die einen kausalen Zusammenhang zwischen bestimmten Bedingungen einerseits und einer intendierten Wirkung andererseits spezifizieren.
Kausale Relationen im System sozialer Interaktionen
Beispiele
Ursache eine Einzelereignisses

Fahrzeug A und Fahrzeug B krachen zusammen, Fahrer B verletzt sich schwer und hat die Rahmenbedingung R "Bluter". Ärztliche Hilfe kommt zu spät, er stirbt. Ursache bleibt aber der Unfall.


Ursachen von Verhalten in sozialen Situationen

z.B. unterlassene Hilfeleistung bei Stresserleben
Implikationen des Konzeptes einer kausalen Ursache zwischen U und V
Die Annahame, dass alle Randbedingungen konstant sind ("ceteris-paribus")
Die kontrafaktische Aussage, die aus jeder kausalen Hypothese folgt:


"U ist Ursache von V" impliziert:

"Wenn U nicht eingetreten wäre, wäre auch die Wirkung V nicht eingetreten"
Ursache
Definition (Westermann, 2000)
Ein Ereignis U ist Ursache für das Ereignis V als Teil einer Gesamtsituation S unter den Randbedingungen R, wenn folgendes gilt:

U ist notwendig, aber nicht hinreichend für das Eintreten von V
U und R gemeinsam sind hinreichend, aber nicht notwendig für V
R allein ist nicht hinreichend für das Eintreten von V
U tritt zeitlich vor V ein
Kausalität
Aspekt: Genauigkeit des Messens
Hat Bedeutung für jede quantitative Analyse von Zusammenhängen zwischen Variablen - insbesondere bei deren Verwendung zu prognostischen Zwecken.
Kausalität
Aspekt: Analyseebenen
Unterscheidung zwischen verschiedenen Ebenen:

Aussagen über einzelne Objekte (physische Objekte oder Lebenwesen)
Aussagen über ein Kollektiv (physische Objekte oder Lebenwesen)

Wobei der Grad der Determiniertheit der Aussagen in beiden Analyseebenen unterschiedlich sein kann.
Kausalität
Aspekt: Wahrscheinlichkeitsaussagen
Die Möglichkeit und Konzeption von Wahrscheinlichkeitsaussagen als Teil von wissenschaftlichen Theorien (über Zustände von oder Zusammenhänge zwischen Objekten).
Kausalität
3 Aspekte
Wahrscheinlichkeitsaussagen
Analyseebenen
Genauigkeit des Messens
Deterministische Zusammenhänge in der Psychologie
Finden sich bestenfalls in der Allgemeinen Psychologie, besonders im Bereich der Psychophysik sowie im Bereich der Lern- und Gedächtnisforschung.
Experiment
Charakterisiert druch zwei Bedingungen
Der Experimentator variiert systematisch mindestens eine Variable (sogenannte unabhängige Variable) und registriert, welchen Effekt diese aktive Veränderung bewirkt - in einer (oder mehreren) Experimentalgruppe(n) im Vergleich zu einer Kontrollgruppe auf die sogenannte abhängige Variable.
Gleichzeitig schaltet er die Wirkung von anderen Variablen aus (mit einer der Techniken zur Kontrolle von Störvariablen).
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze

10. Verantwortungsvoller Umgang mit Tieren in der Forschung
In der psychologischen Forschung, z.B. in neuropsychologischen Studien oder Lern-Experimenten, werden auch Tiere als "Vpn" eingesetzt.
Es wird hier geregelt, dass Tiere artgerecht gehalten und behandelt werden müssen.
Sowohl physische Beeinträchtigungen als auch Operationen müssen durch den Erkenntnisgewinn gerechtfertigt werden.
Wissenschaftlicher Fortschritt und Menschenwürde
Alle ethischen Fragen im Zusammenhang mit Täuschung oder psychischen/physischen beeinträchtigungen machen ein Dilemma psychologischer Forschung sichtbar, welches auch unter "Kosten-Nutzen-Rechnung" oder "methodologische vs. ethische Normen" diskutiert wird.
Es geht um die Frage, unter welchen Bedingungen eine zeitlich begrenzte Verletzung ethischer Normen gerechtfertig ist.
Ein Forscher sieht u.U. in seinem Projekt einen größeren Nutzen als ein Kollege, der diese Studie nur begutachtet.
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze

9. Aufklärung der Forschungsteilnehmer/innen
Hier wird eine Aufklärung der Teilnehmer/innen gefordert, in dem auch darauf hingewiesen wird, dass Psychologen verpflichtet sind geeignete Schritte zu unternehmen, wenn sie erfahren, dass ihre Forschung Probanden Schaden zugefügt hat.
Debriefing
Aufklärung eines Probanden über ein durchgeführtes Täuschungsmanöver während eines Versuchs.
Stooges
Pseudo-Versuchspersonen
Dies sind Mitarbeiter des Versuchsleiters, die gegenüber den echten Probanden als weitere Probanden ausgegeben werden, mit denen sie in Interaktion treten.
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze

8. Täuschung in der Forschung
Hier wird die Täuschung der Probanden thematisiert.
Aus methodischen Gründen kann die Täuschung notwendig sein (z.B. Doppelblind-Versuch).
Auch kann eine Täuschung durch Stooges erfolgen.
Hier wird klar gestellt, dass solche Täuschungsmanöver nur dann infrage kommen, wenn sie sich durch den voraussichtlichen Erkenntnisgewinn rechtfertigen lassen und keine alternativen Vorgehensweisen ohne Täuschung zur Verfügung stehen.
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze

7. Anreize zur Teilnahme an Forschungsvorhaben
Manchmal werden finanzielle oder sonstige Anreize angeboten.
Sie dürfen nicht in unverhältnismäßiger Höhe angeboten werden, um zu vermeiden, dass Personen zu einer Teilnahme genötigt werden.
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze

6. Verzicht auf eine auf Aufklärung basierende Einwilligung in die Forschung
Hier wird erläutert, unter welchen Bedingungen auf eine explizite informierte Einwilligung zu einer psychologischen Untersuchung verzichtet werden kann.
Demnach kann verzichtet werden, wenn absehbar ist, dass die Teilnahme kein Unbehagen erzeugt, das über alltägliche Erfahrungen hinaus geht.
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze

5. Klienten/Patienten, Schüler , Studierende und Psychologen unterstellte Personen als Versuchsteilnehmer
Wenn Forschungsarbeiten mit den oben genannten Personen durchgeführt werden, tragen Psychologen dafür Sorge, dass eine Nicht-Teilnahme oder die vorzeitige Beendigung der Teilnahme für die potenziell Teilnehmenden keine nachteiligen Konsequenzen haben wird.
Ist die Teilnahme an Forschungsprojekten und Untersuchungen Teil der Ausbildung oder durch Prüfungsordnungen vorgeschrieben, so müssen die potenziell Teilnehmenden auf gleichwertige Alternativen zur Untersuchungsteilnahme hingewiesen werden.
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze 
4. Auf Aufklärung basierende Einwilligung für das Aufnehmen von Stimmen oder         Bildern im Rahmen eines Forschungsvorhabens
Falls während der Versuchsdurchführung Audio- und/oder Videoaufzeichnungen gemacht werden, muss dafür eine Einwilligung geholt werden.
Forschungsbezogene ethische Richtlinien der DGPs
15 Grundsätze
Insgesamt werden 15 ethische Grundsätze für die psychologische Forschung und die Publikation von Forschungsergebnissen vorgelegt.
In den Grundsätzen 3 - 8 geht es um die Bedingungen, unter denen sich Personen entscheiden, überhaupt an einer psychologischen Studie teilzunehmen.
Die Grundsätze 11 - 15 betreffen die Publikation von Forschungsergebnissen und werden an anderer Stelle näher erörtert.

Genereller ethischer Grundsatz
Förmliche Bewilligungen
Auf Aufklärung basierende Einwilligung in die Forschung
Auf Auflkärung basierende Einwilligung für das Aufnehmen von Stimmen oder Bildern im Rahmen eines Forschungsvorhabens
Klienten/Patienten, Schüler, Studierende und Psychologen unterstellte Personen als Forschungsteilnehmer 
Verzicht auf eine auf Aufklärung basierende Einwilligung in die Forschung
Anreize zur Teilnahme an Forschungsvorhaben
Täuschung in der Forschung
Aufklärung der Forschungsteilnehmer/innen
Verwantwortungsvoller Umgang mit Tieren in der Forschung
Darstellung von Forschungsergebnissen
Plagiate
Kennzeichnung des Leistungsanteils an einer Forschungsarbeit in Publikationen
Weitergabe von Forschungsdaten zum Zweck der Überprüfung
Gutachter
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze 

3. Auf Aufklärung basierende Einwilligung in die Forschung
Im Regelfall wird ein Proband über das Forschungsvorhaben umfassend und verständlich informiert.
Erklärt sich eine Person vor dem Hintergrund der relevanten Informationen bereit, an der Untersuchung teilzunehmen, wird von informed consent oder informierter Einwilligung gesprochen.
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze 

2. Förmliche Bewilligungen
Diese müssen bei bestimmten Forschungsprojekten eingeholt werden.
Forschungsbezogene ethische Richtlinien der DGPs

15 Grundsätze 

1. Genereller ethischer Grundsatz
Hier wird auf die besondere Verantwortung hingewiesen, die Psychologen tragen, wenn sie in der Forschung tätig sind.
Damit verbunden ist die Verpflichtung, Würde und Integrität sowie Sicherheit und Wohl der Vpn zu gewährleisten und mögliche Risiken auszuschließen.
Ethische Richtlinien, denen die empirisch-psychologische Forschung unterliegt
Welche Gesellschaften haben diese verabsschiedet?
Deutsche Gesellschaft für Psychologie (DGPs)
Berufsverband deutscher Psychologinnen und Psychologen (BDP)