Instrumentelle Konditionierung

Ein weiterer Begriff für Operant Conditioning

Instrumentelle Konditionierung ist ein anderer Begriff für operante Konditionierung , ein Lernprozess, der zuerst von BF Skinner beschrieben wurde . Bei der instrumentellen Konditionierung werden Verstärkung oder Bestrafung verwendet, um die Wahrscheinlichkeit zu erhöhen oder zu verringern, dass ein Verhalten in Zukunft erneut auftreten wird.

Beispiele für Instrumentalkonditionierung

Zum Beispiel, wenn eine Schülerin jedes Mal mit Lob belohnt wird, wenn sie ihre Hand in der Klasse hebt, wird sie wahrscheinlicher ihre Hand in der Zukunft wieder heben.

Wenn sie auch gescholten wird, wenn sie außerhalb der Reihe spricht, wird es weniger wahrscheinlich, dass sie die Klasse unterbricht. In diesen Beispielen verwendet der Lehrer Verstärkungen, um das Verhalten und die Bestrafung der Handhaltung zu verstärken, um das Aussprechen des Zugverhaltens zu schwächen.

Instrumentelle Konditionierung wird oft auch im Tiertraining eingesetzt. Zum Beispiel würde das Training eines Hundes, um die Hände zu schütteln, beinhalten, jedes Mal eine Belohnung anzubieten, wenn das gewünschte Verhalten auftritt.

Eine kurze Geschichte der instrumentellen Konditionierung

Die Psychologin EL Thorndike war eine der ersten, die den Einfluss von Verstärkung in Puzzle-Box-Experimenten mit Katzen beobachtete. Während dieser Experimente beobachtete Thorndike einen Lernprozess, den er als "Versuch-und-Irrtum" -Lernen bezeichnete.

Bei den Experimenten wurde eine hungrige Katze in eine Puzzlekiste gelegt und um sich zu befreien, musste die Katze herausfinden, wie sie entkommen konnte. Thorndike bemerkte dann, wie lange es dauerte, bis die Katzen sich bei jedem Versuch freiließen.

Anfangs beschäftigten sich die Katzen mit unwirksamen Fluchtmethoden, kratzten und gruben an den Seiten oder der Oberseite der Box. Letztendlich würde Versuch und Irrtum die Katzen dazu bringen, den Fluchtweg erfolgreich zu schieben oder zu ziehen. Nach jedem weiteren Versuch wandten sich die Katzen immer weniger an das ineffektive Fluchtverhalten und reagierten schneller mit den richtigen Fluchtaktionen.

Thorndike bezeichnete seine Beobachtungen als das Gesetz der Wirkung . Die Stärke einer Antwort nimmt zu, wenn unmittelbar ein "satisfier" (Verstärker) folgt. Auf der anderen Seite werden Aktionen, denen unangenehme Effekte folgen, eher geschwächt.

In Thorndikes Puzzle-Box-Experimenten war das Entkommen aus der Box der Befriedigende. Jedes Mal, wenn die Katzen der Box erfolgreich entkommen konnten, wurde das Verhalten, das der Flucht unmittelbar vorausging, verstärkt und gestärkt.

Thorndikes Arbeit hatte einen enormen Einfluss auf BF Skinners spätere Forschung zur operanten Konditionierung . Skinner schuf sogar seine eigene Version von Thorndikes Puzzlekisten, die er als operante Kammer bezeichnete, auch bekannt als Skinner-Box .

Wie instrumentelle Konditionierung funktioniert

Skinner identifizierte zwei Schlüsselarten von Verhaltensweisen. Der erste Typ ist das Verhalten der Befragten. Dies sind einfach Aktionen, die ohne Lernen reflexartig ablaufen. Wenn du etwas Heißes berührst, wirst du sofort deine Hand zurückziehen. Klassische Konditionierung konzentriert sich auf diese antwortenden Verhaltensweisen. In Pawlows klassischen Experimenten mit Hunden war Speichelbildung auf die Präsentation von Nahrung das Verhalten der Befragten. Indem Pavlov jedoch eine Verbindung zwischen dem Klang einer Glocke und der Präsentation von Speisen herstellte, war er in der Lage, Hunde so zu trainieren, dass sie beim Klang dieser Glocke tatsächlich sabbern konnten.

Skinner erkannte, dass klassische Konditionierung zwar erklären könnte, wie das Verhalten von Befragten zum Lernen führen könnte, aber nicht für jede Art von Lernen. Stattdessen schlug er vor, dass es die Folgen von freiwilligen Aktionen sind, die zu der größten Menge an Lernen führen.

Die zweite Art von Verhalten ist, was Skinner als operantes Verhalten bezeichnet. Er definierte diese als jedes freiwillige Verhalten, das auf die Umwelt einwirkt, um eine Reaktion zu erzeugen. Dies sind die freiwilligen Verhaltensweisen, die unter unserer bewussten Kontrolle stehen. Dies sind auch Aktionen, die gelernt werden können. Die Konsequenzen unseres Handelns spielen eine wichtige Rolle im Lernprozess.

Verstärkung und Bestrafung

Skinner identifizierte zwei Hauptaspekte des operanten Konditionierungsprozesses. Verstärkung dient dazu, das Verhalten zu erhöhen, während Bestrafung dazu dient, das Verhalten zu verringern.

Es gibt auch zwei verschiedene Arten der Verstärkung und zwei verschiedene Arten der Bestrafung. Positive Verstärkung bedeutet, dass ein positives Ergebnis erzielt wird, z. B. wenn ein Kind nach der Reinigung seines Zimmers behandelt wird. Negative Verstärkung beinhaltet die Beseitigung eines unangenehmen Reizes, wie einem Kind zu sagen, dass wenn sie alle ihre Kartoffeln isst, sie ihren Brokkoli nicht essen muss. Da das Kind Brokkoli für eine unangenehme Folge hält und das Essen der Kartoffeln zur Beseitigung dieser unerwünschten Folge führt, wird das Fressen der Kartoffeln negativ verstärkt.

Positive Strafe bedeutet, ein unangenehmes Ereignis nach einem Verhalten anzuwenden. Spanking zum Beispiel ist ein häufiges Beispiel für positive Bestrafung. Diese Art der Bestrafung wird oft als Bestrafung durch Anwendung bezeichnet. Eine negative Konsequenz wird direkt angewendet, um das unerwünschte Verhalten zu reduzieren.

Negative Bestrafung beinhaltet, dass man etwas angenehmes wegnimmt, nachdem ein Verhalten auftritt. Wenn ein Kind zum Beispiel nicht in der Lage ist, ihr Zimmer zu putzen, könnten ihre Eltern ihr sagen, dass sie nicht mit ihren Freunden ins Einkaufszentrum gehen kann. Das Entfernen der erwünschten Aktivität wirkt sich negativ auf das vorhergehende Verhalten aus.