Vad är meningen med moralfilosofiska tankeexperiment? Målet med att utsätta sina resonemang för tester är för att se ifall de verkligen stämmer; man testar en vetenskaplig hypotes för att se om det är en korrekt beskrivning av verkligheten eller inte. Dessa experiment görs visserligen inte vanligtvis i tankevärlden, men det går att göra sådana tester, för att bara se ifall en hypotes passar in med redan etablerade teorier och fakta. Om hypotesen håller testet är det bevis för att världsbilden den bygger på stämmer.
Fungerar det då likadant för moralfilosofiska tankeexperiment? Och vad är det egentligen man kommer fram till stämmer eller inte? Rent faktiskt, det man testar i moralfilosofiska experiment är om ens sinne, överlag, uppskattar konsekvenserna av en viss teori. Om de passar med (den förfinade) magkänslan av vad som är rätt och fel. Moral handlar om vad man vill göra, och att utsätta sig för frågor om det känns rätt eller fel att göra A eller B i olika skilda positioner verkar huvudsakligen tjäna två syften:
Fungerar det då likadant för moralfilosofiska tankeexperiment? Och vad är det egentligen man kommer fram till stämmer eller inte? Rent faktiskt, det man testar i moralfilosofiska experiment är om ens sinne, överlag, uppskattar konsekvenserna av en viss teori. Om de passar med (den förfinade) magkänslan av vad som är rätt och fel. Moral handlar om vad man vill göra, och att utsätta sig för frågor om det känns rätt eller fel att göra A eller B i olika skilda positioner verkar huvudsakligen tjäna två syften:
- Kartlägga vad ens faktiska moraliska preferenser är. Ifall jag utgår ifrån att hedonistisk utilitarism stämmer med mina värden och sedan ställs inför ett val där jag inte föredrar det, då visar det att en utgångspunkt inte stämde, nämligen den om att jag skulle föredra hedonistiskt utilitarism i alla lägen.
- Utveckla ens moraliska preferenser. Även om ens moraliska sinne föredrar en sak idag innebär inte det att det alltid ses som mest fördelaktigt. Då man inte hunnit tänka igenom allt, och inte vet allt, finns det alltid en möjlighet att saker och ting kan förbättras. Säg att man påstår att ”Det är aldrig rätt att döda”, men får sedan höra några exempel där det verkar rimligt att man ändå får göra det, då borde man ändra på sina preferenser för att efterlikna de förhållandena. Det man gör då är att bygga sitt eget system av moral; att hitta på fler regler för ens beteende som bättre reflekterar den individ man vill vara.
En gång funderade jag på ifall man verkligen borde bry sig om tankeexperiment som är overkliga, som inte kommer att inträffa för mig. För, borde ens moraliska sinne lägga upp en teori för hur man skall agera som till största delen är bestämd av tankeexperiment som man aldrig ställs inför? På ett sätt verkar det på förhand något dumt att göra det; lever man ändå inte i endast en värld och borde inte ens moraliska sinne formas av de potentiella scenarion och faktiska händelser som är, liksom, praktiskt relevanta?
Jag tror att min invändning mot idén inte är helt rimlig (det kanske finns andra dock). För, det som är grejen med moral är ju att det skall vara universellt och det finns ett litet problem med att bara inskränka sig till vad som kan inträffa, nämligen att ens moraliska preferenser inte växer och blir fula. Här sätter jag ett visst krav på moraliska teorier, och det är att de måste ta hänsyn till att det är lite moraliskt godtyckligt vilken sorts hårdvara man har och som bestämmer en del av vad ens moraliska preferenser är. Det verkar inte vara givet att alla rovdjur utvecklar sympati med sitt byte (inte för att jag är överdrivet moralisk på det området). En maktägare som aldrig ställer sig frågan ”tänk om du själv blev utsatt för andras makt, hur skulle du vilja bli behandlad då?” utvecklar inte någon universell moralisk kod för hur man bör behandla sina likar, och famlar därmed i moralisk blindo. Varpå de helt kan strunta i andras preferenser, och inte sätta något värde på andras vilja – eller rationaliserar den som något falskt och ointressant för ens egna planer, som är mycket viktigare.
Vad blir konsekvensen av att jämt och ständigt – givet att man har tid för det – utsätta sina moralfilosofiska tankar för den här sortens hypotetiska scenarion? Jag gissar att ens filosofi blir allt mer abstrakt och slutar ta hänsyn till specifika omständigheter i ens miljö. Saker som tidigare såg ut att ha större moralisk vikt ser utifrån ett kosmiskt perspektiv inte alls så viktiga ut. Ens moraliska system borde även bli mer regelbundet och logiskt; då man utsatt det för fler test. Allt det här är bra saker, men det kommer med en kostnad.
Kostnaden är att man kanske satsar alldeles för mycket tid på att finslipa sin moral, så att man försakar de rent praktiska frågorna som man ställs inför. Det är inte så vidare värdefullt att ha en perfekt teori för att hantera alla möjliga hypotetiska situationer om att byta spår för järnvägsvagnar, om man samtidigt inte lägger ned lika mycket tid på att kunna kommunicera för andra om vikten av att tänka rationellt när det gäller politik.
Alltså, som med allt får man göra avvägningar. För egen del är nog marginalnyttan av mer hypotetiskt filosoferande just nu av mindre vikt, så i nästa inlägg tänkte jag ta upp tankeexperiment för den mest praktiska moralen.
Edit: Nu glömde jag ta upp ett faktiskt tankeexperiment som är till för att uppmuntra universellt-moraliskt tänkande. Jag vet inte om de här exemplen är så bra, men kanske något är:
Jag tror att min invändning mot idén inte är helt rimlig (det kanske finns andra dock). För, det som är grejen med moral är ju att det skall vara universellt och det finns ett litet problem med att bara inskränka sig till vad som kan inträffa, nämligen att ens moraliska preferenser inte växer och blir fula. Här sätter jag ett visst krav på moraliska teorier, och det är att de måste ta hänsyn till att det är lite moraliskt godtyckligt vilken sorts hårdvara man har och som bestämmer en del av vad ens moraliska preferenser är. Det verkar inte vara givet att alla rovdjur utvecklar sympati med sitt byte (inte för att jag är överdrivet moralisk på det området). En maktägare som aldrig ställer sig frågan ”tänk om du själv blev utsatt för andras makt, hur skulle du vilja bli behandlad då?” utvecklar inte någon universell moralisk kod för hur man bör behandla sina likar, och famlar därmed i moralisk blindo. Varpå de helt kan strunta i andras preferenser, och inte sätta något värde på andras vilja – eller rationaliserar den som något falskt och ointressant för ens egna planer, som är mycket viktigare.
Vad blir konsekvensen av att jämt och ständigt – givet att man har tid för det – utsätta sina moralfilosofiska tankar för den här sortens hypotetiska scenarion? Jag gissar att ens filosofi blir allt mer abstrakt och slutar ta hänsyn till specifika omständigheter i ens miljö. Saker som tidigare såg ut att ha större moralisk vikt ser utifrån ett kosmiskt perspektiv inte alls så viktiga ut. Ens moraliska system borde även bli mer regelbundet och logiskt; då man utsatt det för fler test. Allt det här är bra saker, men det kommer med en kostnad.
Kostnaden är att man kanske satsar alldeles för mycket tid på att finslipa sin moral, så att man försakar de rent praktiska frågorna som man ställs inför. Det är inte så vidare värdefullt att ha en perfekt teori för att hantera alla möjliga hypotetiska situationer om att byta spår för järnvägsvagnar, om man samtidigt inte lägger ned lika mycket tid på att kunna kommunicera för andra om vikten av att tänka rationellt när det gäller politik.
Alltså, som med allt får man göra avvägningar. För egen del är nog marginalnyttan av mer hypotetiskt filosoferande just nu av mindre vikt, så i nästa inlägg tänkte jag ta upp tankeexperiment för den mest praktiska moralen.
Edit: Nu glömde jag ta upp ett faktiskt tankeexperiment som är till för att uppmuntra universellt-moraliskt tänkande. Jag vet inte om de här exemplen är så bra, men kanske något är:
1. I framtiden kanske det blir möjligt att radikalt förändra ens interna belöningssystem, så att man, exempelvis, kan se till att få högsta möjliga njutning av att lägga korsord, sköta en åker, träna sin kropp eller vad man än kan tänka sig. Finns det något du skulle vilja ändra i ditt belöningssystem då? Som i, något beteende eller någon upplevelse som du vill skall belönas annorlunda än hur det fungerar nu?Sedan får man fråga sig om man själv inte skulle vilja agera enligt den moral man vill ge bort till andra.
2. Säg att du vore en gud och är på väg att skapa någon varelse med en egen vilja, och som du inte kan få använda för dina egna syften (som en ameglianska ko i Liftarens guide). Hur skulle du designa den varelsen?
3. Vilka värderingar vill du ge dina barn?
Inga kommentarer:
Skicka en kommentar