Assimov. lleis robotica - Psico Trascendencia PDF

Title Assimov. lleis robotica - Psico Trascendencia
Author Laura Hereu
Course Psicologia i Sociologia de la Trascendència
Institution Universitat Ramon Llull
Pages 2
File Size 131.6 KB
File Type PDF
Total Downloads 84
Total Views 162

Summary

Tasca sobre les lleis de la robòtica de l'assignatura de Psicologia i la sociologia de la trascendència....


Description

Psicologia de la transcendència Curs 2021-2022

COGNOMS I Nom.................Laura Hereu Bouza.................................................................

Iyad Rahwan presenta unes reflexions a partir de les propostes d’Assimov sobre la robòtica. Què passarà quan els robots siguin capaços de prendre decisions basades en dilemes morals d’acord amb les màquines superintel·ligents de Bostrom https://www.ted.com/talks/iyad_rahwan_what_moral_decisions_should_driverless_cars_m ake?language=es

1.- Segons Rahwan tot dilema ètic comporta la disposició a fer concessions. Com interpreta els models inspirats en Bentham (ètica utilitarista) i en Kant (ètica del deure)? Quin és el dilema entre els interessos individuals i el bé comú segons l’exemple dels pastors i les ovelles dissenyat per Lloyd? Rahwan posa l’exemple d’una enquesta que van fer respecte dues situacions amb un coche inspirades en els filòsofs Bentham i Kant. Respecte Bentham diu que el cotxe ha de seguir l’ètica utilitarista, és a dir, el conductor hauria d’escollir l’acció que minimitzi la magnitud del mal total. Per altre banda Kant diu que el conductor ha de seguir l’ètica del deure, és a dir, que no s’ha de prendre cap acció que impliqui fer mal a cap ésser humà i que per tant, has de deixar que el cotxe continuï el seu camí tot i que això impliqui més persones ferides. Segons Loyd si cada pastor porta tres ovelles el prat es trobaria en bon estat. Si un d’aquests pastors porta una ovella més aquest pastor es trobaria en una situació més afavorida i ningú sortiria damnificat, però el problema ve si cada pastor es centra en el bé individualitzat i porta una ovella cadascun, el prat es veuria sobreexplotat i la pastura s’esgotaria. El dilema vindria donat per la intencionalitat de prendre una decisió individualitzada d’augmentar la protecció pròpia perjudicant d’alguna manera al bé comú, que seria l’equivalent a minimitzar el mal total, davant la possibilitat de sobreposar el deure i per tant el bé comú sobre el d’un mateix.

2.- Com interpreta Rahwan les lleis de la robòtica d’Assimov aplicades al cas dels dilemes ètics dels cotxes automatitzats? Quina diferència comporta respecte de les respostes dels conductors humans en el qüestionari Moral Machine? Segons Assimov hi ha tres lleis de la robòtica, però la llei 0 i per tant la més important és la següent: “Un robot no farà mal a la humanitat”. Amb aquestes lleis Rahwan afirma no estar segur de que volen dir ni sobre què ho podem aplicar, però sí té clar que el dilema no és un problema únicament tecnològic, si no que l’ètica, la moral i la cooperació social juguen un paper fonamental. La diferència principal que comporta és que en aquest qüestionari es tenen en compte la importància que la gent li dona a les coses, els valors ètics aportats per les diferents cultures i la comprensió de la dificultat que té prendre segons quin tipus de decisions aparentment impossibles, la qual cosa ens ajudarà com a societat a entendre quines son les normes que s’han d’implementar.

3.- Reflexiona sobre la qüestió següent: els robots són capaços de dilemes ètics quan abandonen la categoria d’objectes-màquina i adquireixen la condició de subjectes, és a dir, entitats dotades de consciència i, per tant, aptes per entendre la realitat en forma de dilema que obliga a prendre decisions racionals. Tingues en compte el document del Parlament Europeu sobre els drets dels robots. Considero que per la presa d’una decisió és necessari tenir en compte molts més factors que no pas únicament el racional, és a dir, hem d’estar pendents del context tant social, com psicològic, com biològic entre molts d’altres i més si es tracten de dilemes ètics o morals. Per aquest motiu un robot de categoria objecte-màquina és incapaç de resoldre aquests dilemes ètics que se li presenten ja que únicament veu la part racional, el que provocaria una mala resolució del problema. No obstant això, crec que mai hi ha una solució correcta davant un problema ètic, ja que l’ètica és una disciplina molt variable i indefinida, a demés d’inventada pel propi ésser humà el que la fa poc fiable, amb això vull dir que si ens resulta difícil a nosaltres posar-nos d’acord respecte el que està bé i el que no veig molt complicat que aquest coneixement es pugui traspassar a un robot....


Similar Free PDFs