AgentProvocateur hat geschrieben:Nanna hat geschrieben:Was können wir in einer natürlichen Welt, die uns keinen letzten Sinn anbietet, anderes tun, als die Zeit, die uns zur Verfügung steht, so angenehm wie möglich zu verbringen [...]
Wir können uns selber einen Sinn suchen. Die Zeit so angenehm wie möglich zu verbringen mag nun eine Möglichkeit sein.
Nein, du hast das anders verstanden, als ich das rüberbringen wollte: Du wirst tun, was du für am angenehmsten für dich empfindest. Ich habe nie gesagt, dass das im ausschließlichen Verzehr von Schokolade enden soll. Auch Soldat werden, Menschen töten, den ultimtiven Kick verspüren, kann dein Hirn als angenehmste Beschäftigung betrachten, die es kennt, z.B. weil es süchtig nach Adrenalin ist. Dein Gehirn wird ganz sicher nicht etwas tun, was es subjektiv nicht als am optimalsten einschätzt. Angenehme Gefühle, die diese Handlungen begleiten, sind lediglich der Verkaufstrick des Gehirns an sich selbst.
AgentProvocateur hat geschrieben:Man könnte sich z.B. auch auf die Suche nach Erkenntnis begeben. Oder man könnte Kinder bekommen und die aufziehen. Vielleicht möchte man autonom sein, selbstständig, (auch wenn das mehr Leid und weniger Glück ergibt, als wenn man einfach blind einer 'höheren Macht' [was auch immer das sei, Gott, die Wissenschaft, die Natur, einem Führer, einer beliebigen anderen Autorität] gehorcht). Vielleicht legt man Wert auf Gerechtigkeit. Oder eine Kombination aus all diesem. Das nun irgendwie auf 'Erlangen von Glück' und / oder 'Vermeidung von Leid reduzieren zu wollen, scheint mir eine unzulässige Vereinfachung zu sein.
Ich definiere Glück und Leid bewusst sehr weit und mache darauf aufmerksam, dass das immer auch weithin subjektive Kategorien sind. Was der eine als pervers und eklig empfindet, mag der andere toll und angenehm finden. Ob etwas angenehm oder bedrohlich erscheint ergibt sich aus genetischer Veranlagung und Prägung. Ein Spinnenforscher mag es als das angenehmste der Welt empfinden, in einem Spinnenterrarium zu sitzen, andere Leute denken darüber womöglich deutlich anders.
Du wirst letztlich immer das tun, was deinem Gehirn als der beste Kompromiss aus Glückmaximierung und Leidvermeidung erscheint. Wie das individuell aussieht, hängt von deinen Präferenzen ab und davon, wovor du Angst hast. Deine Handlungen werden weiterhin natürlich auch durch deine Risikobereitschaft geprägt; so bist du vielleicht bereit großes Leid zu riskieren, wenn im Erfoglsfall großes Glück winkt. Dein Gehirn würde aber, sofern es nicht ernsthaft geschädigt ist oder ungewöhnliche Anomalien hat, nie eine Handlung erlauben, von der es ausrechnet, dass es nur verlieren kann. Da der Maßstab aber immer sehr subjektiv ist, lässt sich das natürlich schwer auswerten, weil man für jede Person das individuelle Präferenzensystem kennen müsste.
Glücksmaximierung und Leidvermeidung sind in dieser Sichtweise also Ziel und Mittel in einem. Vielleicht ist das eine Vereinfachung, meiner Meinung nach dann aber keine schlechte, da letztlich alles im Gehirn irgendwann durch die Relevanz-Prüfung läuft und da werden nur Dinge durchkommen, die als vorteilhaft angesehen werden, woraufhin das emotionale System im Zusammenhang mit der beabsichtigten Handlung positive Gefühle signalisiert, damit die entsprechenden Zentren das auch ausführen.
AgentProvocateur hat geschrieben:Leute sind für ihre Überzeugungen gestorben, wie passt das mit Glückerhöhung und Leidvermeidung zusammen?
Offensichtlich muss die reine Vorstellung - und ich möchte anmerken, dass eine Vorstellung ("Illusion") im Gehirn im Prinzip dieselbe Wirkmacht entfalten kann wie eine reale Erfahrung - so viel Glücksgefühle (=> Motivation) erzeugen, dass der erwartete Schaden als hinnehmbar erscheint. Ein soziales Wesen, das ja nicht nur der individuellen Selektion, sondern auch der Gruppenselektion unterworfen ist, opfert sich möglicherweise für die Gruppe, das ist u.U. evolutionär vorteilhaft und das wiederum legt die Vermutung nahe, dass sich evolutionär ein Mechanismus entwickelt hat, der in Extremsituationen anspringt, um die Gruppe zu retten, auch wenn das Individuum dabei draufgeht (solange es sich vorher fortgepflanzt hat, ist das aus evolutionärer Sicht auch nicht so das übermäßige Problem). Der Mechanismus dürfte so aussehen, dass genug Glücksgefühle vorhanden sind, um die Angst vor dem Tod zu überbrücken, bis die entsprechende Handlung, die u.a. den Tod beinhaltet ausgeführt ist.
Genauso kann Leidvermeidung eine Rolle spielen, sonst gäbe es auch keine Suizide. Menschen sind bereit, zu sterben, wenn die Bedingungen des Überlebens derart qualvoll erscheinen, dass die Nichtexistenz präferiert wird, weil eben keine ausreichenden Glücksgefühle mehr produziert werden können. Was der Grund im Einzelfall dafür ist, ist irrelevant. Auch jemand, der für seine Überzeugungen stirbt, mag neben der Euphorie, die die vermutete Bewunderung der Nachwelt auslöst, hat außerdem vielleicht so große Angst vor der Schmach, die ihm im Falle des Wortbruchs ("Dafür würde ich sterben!") droht, dass er den Tod als angenehmer empfindet,
Desweiteren darfst du nicht vergessen, dass den Leuten die Konsequenz der Selbsttötung möglicherweise nicht klar sind. Ein islamistischer Selbstmordattentäter geht aus seiner subjektiven Sicht nicht in den Tod als Ende allen Seins für ihn. Sein Unterbewusstsein ist da, entsprechende Indoktrinierung vorausgesetzt, nicht klüger als er auch.
AgentProvocateur hat geschrieben:Und: wäre 'Vermeidung von Leid' das einzige Ziel, wäre es rational, alle Lebewesen, die Leid empfinden können, schnell und schmerzlos zu töten. Damit hätte man alles künftige Leid zuverlässig verhindert. Kommt nun noch 'Erlangen von Glück' hinzu, dann wäre es das Rationalste, eine Glücks-Droge zu entwickeln, die Leidempfindung gänzlich ausschaltet und Glücksgefühle erzeugt. Die anderen zu ihrem Glück zu zwingen, auch wenn sie das gar nicht wollen, (weil das dann ja moralisch richtig wäre).
Das Vertrackte daran ist: Es würde einen nicht glücklich machen, alle empfindenden Lebewesen zu töten, sonst wäre auf die Idee sicher schon einer gekommen. Wer so denkt, wird aber evolutionär aussortiert und es bleiben nur die übrig, die mit dem Überleben grundsätzlich ein Glücksgefühl verbinden (weshalb im Baby-Thread vielleicht jemand, weiß nicht mehr genau wer, intuitiv Glücksmomente stärker gewichtet hat als Leidmomente. Irgendein Mechanismus in unserem Gehirn muss dafür sorgen, dass der Gedanke ans Überleben so viel Glück bzw. der ans Sterben soviel Leid verursacht, dass wir das alltägliche Leid als leichter aushaltbar empfinden.
Was ich als "Ziel" benenne ist ein neurobiologischer Mechanismus, der auf dieses "Ziel" hinarbeitet, ich habe das aber nicht als ethisch-moralisch erstrebenswertes Ziel definiert. Ich behaupte nur, dass es mehr oder weniger so ist, dass unser Gehirn uns Handlungen, die es als optimal in der jeweiligen Situation empfindet, über Glücks- und Leidgefühle verkauft und dass wir nicht anders können, als dieser Empfehlung zu folgen. Ich möchte hieraus keine stringente Handlungsanleitung ableiten, das wäre der naturalistische Fehlschluss. Ich sehe es aber als grundlegend an, dass wir bei der Abwägung von potentiellem Glück und Leid zweier konkurrierender Leben die zentrale Bedeutung dieser Empfindungen berücksichtigen. Der Mutter muss, wenn sie das Kind austragen soll, eine vertretbare Menge an Glück zugestanden werden und da das Kind (im Grunde) noch nicht existent ist, geht hier das zentrale Bedürfnis der Mutter nach Optimierung ihres Glück-Leid-Kontos vor. Wenn man also das Kind um jeden Preis auf der Welt haben will, muss man im Gegenzug der Mutter etwas anbieten, was einen entsprechenden Ausgleich für dieses Konto bedeutet, z.B. umfangreiche Hilfsmaßnahmen oder soziale oder finanzielle Kompensation.
AgentProvocateur hat geschrieben:Mir scheint 'Selbstverwirklichung (Autonomie)', ein viel grundlegender Wert zu sein als Glückserlangung und Leidvermeidung - insbesondere dann, wenn vorgeschrieben wird, was man gefälligst unter 'Glück' und 'Leid' verstehen soll, die also als irgendwie objektiv gültige Werte proklamiert werden.
Nein, wie gesagt, das ist ein Missverständnis, und ich habe da sicher auch nicht gerade besonders exakt definiert. Selbstverwirklichung würde aus meiner Sicht bedeuten, den eigenen Präferenzen ideal folgen zu können, also das eigene Glück-Leid-Konto nach idealen Bedingungen befüllen zu können. Selbstverwirklichung ist in meinem Modell ein Hebel zur Erlangung von Glück, eine objektive Definition lehne ich auch ab. Allerdings - und hier ist der Knackpunkt, wo subjektive und objektive Position miteinander verwoben werden - müssen natürlich gewisse globale (also für alle Menschen gültigen) Präferenzen postuliert und gewichtet werden, damit man überhaupt irgendeine Vergleichbarkeit hat und ein Zusammenleben organisieren kann und da kommen wieder die Maslowsche Bedürfnispyramide (im folgenden "MP") und natürlich auch der Liberalismus ins Spiel.
AgentProvocateur hat geschrieben:Nanna hat geschrieben:Auch wenn Peter Singer dank der ganzen Tierrechtsdiskussionen hier sicherlich ein heißes Eisen im Form ist, finde ich die Grundidee seines
Präferenzutilitarismus, jetzt mal bitte auf den Menschen beschränkt für diese Diskussion (!), durchaus wert, mal ein paar Gedanken dran zu verschwenden.
Der Präferenz-Utilitarismus scheitert mE schon an seiner Prämisse:
Präferenzutilitarismus hat geschrieben:Fällt die Präferenz mit der Auswirkung der Handlung zusammen, ist die Handlung moralisch gut. Missachtet der Handelnde die Präferenz eines Wesens, so muss er notwendigerweise einen Ausgleich dafür finden (etwa durch die Beförderung einer entgegengesetzten Präferenz in höherem Maße), da die Handlung andernfalls moralisch schlecht ist.
Wieso sollte das schlichte Vorhandensein eines Interesses automatisch eine moralische Verpflichtung für andere bedeuten? Mir erscheint das als eine wenig plausible Setzung, wenn man sich konkrete Beispiele überlegt.
Es gibt Interessen, die selber unmoralisch sind, (z.B. Rassismus), und die mE daher weder berücksichtigt, noch ausgeglichen werden müssen. Die also missachtet, sogar evtl. bekämpft werden sollten.
Naja, hier muss man natürlich ein Gleichgewichtsmodell implementieren ("Die eigene Freiheit endet da, wo die Freiheit des Anderen beginnt."). Das rassistische Interesse eines Weißen beispielsweise widerspricht den Interessen nach Freiheit und Gleichberechtigung aller Nicht-Weißen. In diesem Fall ist das einfach zu lösen, weil hier ein Individualbedürfnis (Weißer mag keine Nichtweißen => Stufe 4 MP) mit einem Grundrecht (Sicherheitsbedürfnis => Stufe 2 MP) kollidiert und damit ganz klar die Grundrechte siegen. Die Nichtweißen erlangen im Umkehrschluss ja auch kein Recht, den Weißen für seine rassistischen Neigungen abzumurksen.
Ich sage nicht, dass diese Idee der heilige Gral der Philosophie ist. Aber es ist eine interessante Grundidee, aus der heraus man grundlegende Regeln sozialen Miteinanders konstruieren kann. Ganz generell sind politische Philosophien sowieso nie wasserdicht, aber auf irgendwas muss man halt seine Prämissen aufbauen.
AgentProvocateur hat geschrieben:Und es gibt Interessen, die schlicht moralisch für Dritte irrelevant sind, keinen moralischen Anspruch beinhalten. Z.B.: A will Sex mit B (oder C oder D oder...). B (oder C oder D oder ...) muss das mE jedoch weder berücksichtigen, noch einen Ausgleich schaffen, (obwohl Sexualität in der Maslowschen Bedürfnispyramide ganz zentral ist).
Ja, aber dass Sex zentral ist, heißt auch, dass Bs Interesse an einer sexuellen Selbstbestimmung dasselbe Gewicht hat. Hier müssen wir, soweit ich das sehe, eine wichtige Zusatzregeln einführen: Wenn die Bedürfnisse zweier Individuen, die auf der MP gleichwertig sind, kollidieren, dann darf jeder das eigene Interesse als minimal, aber entscheidend, höher gewichten als das des anderen. Das heißt konkret, wenn Stufe 1 kollidiert, d.h. es auf Leben oder Tod geht, hat jeder das Recht zur Selbstverteidigung und damit im Extremfall auch zum Töten des Anderen. Oder wenn es um Sex geht und A will B, aber B will A nicht, dann ist B als derjenige, der einwilligen oder ablehnen muss, am längeren Hebel und darf sein Interesse zur Ablehnung als minimal höher, aber eben entscheidend höher, bewerten, als As Interesse. A kann zwar sein Interesse auch höher gewichten, aber wenn B nicht mitspielt, kann A nichts machen. In einer Blockadesituation passiert nunmal im Zweifel eher nichts als etwas; und Gewaltanwendung lassen wir jetzt mal raus, weil das Interesse an körperlicher Unversehrtheit meiner Meinung nach bei einer Feinunterteilung im Allgemeinen nochmal grundlegender als Sex ist.
AgentProvocateur hat geschrieben:Ich halte die Prämisse, ein Vorliegen irgend einen Interesses, egal welches, begründe schon automatisch einen moralischen Anspruch gegenüber Dritten, schlicht für falsch. Und damit ist mE der Präferenzutilitarismus schon von Vorneherein erledigt.
Komischweise ruht aber um Grunde unser gesamtes praktisches Denken auf einem Modell, dass in Grundzügen Singers Idee folgt. Unser ganzes Rechtssystem baut darauf auf, dass Interessen gegeneinander abgewogen werden, man nennt diese dort nur anders, nämlich "Rechte". Rechte sind aber meiner Meinung nach nichts anderes als standardisierte Interessen. So wird Mord als Verletzung des Interesses am Überleben (MP Stufe 1) streng geahndet, wohingegen berufliche Intrigen zum Zwecke (MP Stufen 4 & 5) oftmals überhaupt keine rechtlichen Konsequenzen haben.
Ich werfe mal die Vermutung in den Raum, dass du zu einseitig denkst: Bei formuliert A ein Interesse und damit einen Anspruch gegenüber B und du behauptest, B müsse dem folgen. B hat aber selber Interessen, die mit denen von A kollidieren können, womit der Zugriff von A auf B beschränkt und ein Kompromiss nötig wird. Beide haben also durchaus Ansprüche an den anderen, wobei diese sich - verbildlicht dargestellt - auf halbem Weg treffen, blockieren und so jedem einen gewissen Raum (im ausgewogenen Fall die Hälfte) zubilligen. Dass man im praktischen Fall mit so einer Verbildlichung nicht so viel anfangen kann, weiß ich auch. Aber stell es dir konkret so vor, dass jeder sich gegenüber anderen bis zu einer gewissen Schmerzgrenze Dinge erlauben darf, dass er aber sanktioniert wird, wenn er sein Interesse überdehnt und damit seinerseits den moralischen Anspruch der Gegenseite missachtet hat. Es bilden sich im Idealfall ein Gleichgewicht der Ansprüche und eine liberale Gesellschaft.
AgentProvocateur hat geschrieben:(Und dann gibt es bei Singer übrigens noch zusätzlich einen ganz grundlegenden Punkt, an dem seine Ethik von Vorneherein scheitert. Nämlich die Behauptung, alle Interessen müssten gleich gelten, man sei moralisch dazu verpflichtet, einen Standpunkt einzunehmen, der von sich selber vollkommen abstrahiert. Das halte ich ebenso für wenig plausibel. Ich bin mE z.B. nicht moralisch verpflichtet, mein Leben oder das meines Kindes für Deines (oder für Deine Familie oder das Volk oder whatever) zu opfern, völlig gleichgültig, wieviel Leid das verhindert oder wieviel Glück das erzeugt. Eine Ethik, die solches ernsthaft verlangt, aus deren Prämissen das folgt, halte ich für schlicht fehlerhaft. Ich sehe keinen Grund, warum ich die akzeptieren könnte, das verletzt mE schlicht diejenige Grundlage, auf der eine Ethik für ein Individuum annehmbar sein könnte - nämlich die Anerkennung meiner Individualität und somit die Nicht-Aufrechenbarkeit des Individuums. Aber vielleicht möchte man ja gar keine Ethik, die von anderen akzeptiert wird, sondern eine, die 'objektiv wahr' ist. Und zieht daraus dann die Rechtfertigung zu einem beliebigen Paternalismus. Das könnte auch sein. Nur leider gibt es nun mal keine 'objektiv wahre' Ethik.)
Ich gebe zu: Wenn man in meinem (sehr unausgereiften) Modell mehr als zwei Akteure hat, wird es kompliziert - aber auch die Mathematiker können das Dreikörperproblem ja nicht lösen (ok, das ist jetzt kein Argument

). Ich würde, wie schon vorher gesagt, die Sonderregel einführen, dass es im Fall kollidierender gleichwertiger Interessen ein Recht auf Höherwertung des eigenen Bedürfnisses gibt, anders gesagt, wenn es gar nicht anders geht, kommt das Recht des Stärkeren zum Tragen. Das ist zugegebenermaßen eine hässliche, aber pragmatische Lösung und vermutlich auch die, die die meisten Menschen praktizieren würden. Freiwillig anders handeln kann man ja immer noch, weil man beispielsweise lieber selbst verhungert als sein Kind sterben zu lassen, dabei geht es aber um Zuneigung aus freien Stücken und nicht um einen ethischen Anspruch des Kindes.
Vielleicht bietet sich eine kleine verfahrenstechnische Spitzfindigkeit an: Wenn 1000 Menschen einen Anspruch auf ihre Leben formulieren, der deinen Tod fordert, so geht es im Präferenzutilitarismus (zumindest würde ich in meinem modifizierten Modell das so sehen) aber trotzdem immer um die Beziehungen von Individuen, nie von Gruppen, da Gruppen keine Interessen haben (auch wenn ich persönlich Gruppenselektion für existent und Gruppeninteressen daher bis zu einem gewissen Grad für konstruierbar halte). Anstatt dass du also die Abwägung der Interessen einmal gegen 1000 Leute durchführst, führst du sie 1000 mal mit jedem Individuum durch. Da kommt meine Sonderregel der egoistischen Höhergewichtung der Eigeninteressen zum Tragen, d.h. du darfst jeden der 1000 Ansprüche einzeln abblocken.
Das klingt vielleicht nach Milchmädchenrechnung, aber auf die Weise ließen sich solche auch in meiner Sicht unzulässigen Situationen vermeiden. Außerdem gäbe es böse Probleme mit Minderheiten generell, wenn Gruppen ihre ethischen Ansprüche bündeln dürften.
War vielleicht nicht alles perfekt durchdacht und du findest die Schwachstellen sicher, daher: Dein Zug.
