Ètica de la intel·ligència artificial

aspectes ètics específics de la intel·ligència artificial

L'ètica de la intel·ligència artificial és la branca de la tecnoètica que s'ocupa dels robots i altres éssers dotats d'intel·ligència artificial.[1][2] Es pot dividir en roboètica, que té a veure amb el comportament dels éssers humans que dissenyen, construeixen, utilitzen i tracten amb éssers dotats d'intel·ligència artificial, i ètica de les màquines, que s'interessa pel comportament moral dels agents morals artificials (AMA). Pel que fa a les intel·ligències artificials generals (IAG), s'ha començat a treballar en metodologies per integrar-les en el marc jurídic i social existent, que se centren en la condició jurídica de les IAG i els seus drets.[3]

Roboètica modifica

La roboètica s'interessa pel comportament dels éssers humans que dissenyen, construeixen, utilitzen i tracten amb éssers dotats d'intel·ligència artificial.[4] Estudia com es poden fer servir els éssers dotats d'intel·ligència artificial per beneficiar o fer mal als éssers humans.

Drets dels robots modifica

El concepte de «drets dels robots» parteix de la idea que les persones tenen obligacions morals envers les seves màquines, de manera semblant als drets humans o drets dels animals.[5] S'ha suggerit que els drets dels robots, com ara el dret a existir i complir la seva missió, es podrien vincular al deure dels robots de servir els humans, de la mateixa manera que els humans tenen drets i deures en la seva societat.[6] Aquests drets inclouen el dret a la vida, el dret a la llibertat, la llibertat de pensament i d'expressió i la igualtat davant de la llei.[7] El tema ha estat estudiat per l'Institute for the Future[8] i el Departament de Comerç i Indústria del Regne Unit.[9]

Els experts encara no s'han posat d'acord sobre l'horitzó en el qual seran necessàries lleis concretes i detallades al respecte.[9] Ray Kurzweil ha vaticinat que el 2029 ja podria haver-hi els primers robots prou avançats,[10] mentre que un grup de científics reunits el 2007 creien que encara havien de passar com a mínim 50 anys per arribar a aquest punt.[11]

Les bases de l'edició del 2003 del Premi Loebner preveien la possibilitat que els robots tinguin drets algun dia:

« 61. En cas que, algun any, un [Programa] Candidat de codi obert disponible públicament presentat per la Universitat de Surrey o el Centre de Cambridge guanyés la Medalla de Plata o la Medalla d'Or, la Medalla i el Premi Monetari s'atorgaran a l'entitat responsable del desenvolupament del [Programa] Candidat en qüestió. En cas que no es pogués identificar aquesta entitat o en cas de desacord entre dos o més reclamants, la Medalla i el Premi Monetari es mantindran en fideïcomís fins que el [Programa] Candidat obtingui el dret de posseir la Medalla i el Premi Monetari per dret propi als Estats Units o al lloc en el qual se celebri el concurs. »
[12]

L'octubre del 2017, a la ginoide Sophia li fou concedida la ciutadania d'honor de l'Aràbia Saudita, tot i que alguns observadors ho veieren més com un truc publicitari que com un reconeixement legal significatiu.[13] D'altres ho veieren com un insult descarat als drets humans i l'imperi de la llei.[14]

La filosofia de la sensibilitat estableix que tots els éssers dotats de sensibilitat (principalment els éssers humans i la majoria d'animals no humans) mereixen un cert grau de consideració moral. Si altres formes d'intel·ligència que encara no s'han descobert, com ara vida extraterrestre o intel·ligència artificial, resulten estar dotades de sensibilitat, aleshores han de ser tractades amb compassió i tenir drets.

Ètica de les màquines modifica

L'ètica de les màquines (o moralitat de les màquines) és el camp de recerca que tracta dels agents morals artificials (AMA), és a dir, els robots o ordinadors dotats d'intel·ligència artificial que es comporten de manera moral.[15][16][17][18] Per tenir en compte la naturalesa d'aquests agents, s'ha proposat tenir en consideració diverses idees filosòfiques, com ara les descripcions habituals de l'agència, l'agència racional, l'agència moral i l'agència artificial, que estan relacionades amb el concepte dels AMA.[19]

A la dècada del 1950, Isaac Asimov analitzà la qüestió en Jo, robot, una sèrie d'històries curtes. Per insistència del seu editor, John W. Campbell Jr., proposà les tres lleis de la robòtica com a fonament dels sistemes dotats d'intel·ligència artificial. Gran part de la seva obra restant se centrà a posar a prova els límits de les tres lleis per determinar on podrien fallar o desembocar en comportaments paradoxals o inesperats. El treball d'Asimov suggereix que no hi ha cap conjunt de lleis fixes que pugui anticipar tots els possibles escenaris de manera eficaç.[20]

El 2009, en un experiment dut a terme al Laboratori de Sistemes Intel·ligents de l'Escola Politècnica Federal de Lausana (Suïssa), uns robots que havien estat programats per col·laborar (per trobar un recurs beneficiós i evitar-ne un de tòxic) acabaren aprenent a mentir-se els uns als altres en un intent d'acumular el recurs beneficiós.[21]

Referències modifica

  1. Fjeld, J.; Achten, N.; Hilligoss, H.; Nagy, A.; Srikumar, M. «Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI» (en anglès). SSRN Working Paper Series, 2020. DOI: 10.2139/ssrn.3518482. ISSN: 1556-5068.
  2. Jobin, A.; Ienca, M.; Vayena, E. «The global landscape of AI ethics guidelines» (en anglès). Nature Machine Intelligence, 1, 9, 2019, pàg. 389–399. DOI: 10.1038/s42256-019-0088-2. ISSN: 2522-5839.
  3. Sotala, K.; Iampolski, R. V. «Responses to catastrophic AGI risk: a survey» (en anglès). Physica Scripta, 90, 1, 19-12-2014, pàg. 8. DOI: 10.1088/0031-8949/90/1/018001. ISSN: 0031-8949.
  4. Veruggio, G. «The Roboethics Roadmap» (en anglès). Scuola di Robotica, 2007, pàg. 2.
  5. Evans, W. «Posthuman Rights: Dimensions of Transhuman Worlds» (en anglès). Teknokultura, 12, 2, 2015. DOI: 10.5209/rev_TK.2015.v12.n2.49072.
  6. Xeliajenko, I. «Artificial Personal Autonomy and Concept of Robot Rights» (en anglès). European Journal of Law and Political Sciences, 2017 [Consulta: 10 maig 2017].
  7. The American Heritage Dictionary of the English Language, quarta edició.
  8. «Robots could demand legal rights» (en anglès). BBC News, 21-12-2006 [Consulta: 3 gener 2010].
  9. 9,0 9,1 Henderson, M. «Human rights for robots? We're getting carried away» (en anglès). The Times Online. The Times of London, 24 abril 2007 [Consulta: 2 maig 2010].
  10. Kurzweil, R. The Singularity is Near (en anglès). Penguin Books, 2005. ISBN 978-0-670-03384-3. 
  11. The Big Question: Should the human race be worried by the rise of robots? (anglès). The Independent.
  12. Loebner Prize Contest Official Rules — Version 2.0 Arxivat 2016-03-03 a Wayback Machine. (anglès)
  13. Saudi Arabia bestows citizenship on a robot named Sophia
  14. «Pretending to give a robot citizenship helps no one» (en anglès), 30-10-2017.
  15. Anderson. «Machine Ethics» (en anglès). Arxivat de l'original el 28 de setembre 2011. [Consulta: 27 juny 2011].
  16. Machine Ethics (en anglès). Cambridge University Press, juliol 2011. ISBN 978-0-521-11235-2. 
  17. «Special Issue on Machine Ethics» (en anglès). IEEE Intelligent Systems, 21, 4, juliol-agost 2006, pàg. 10–63. Arxivat de l'original el 26 novembre 2011. DOI: 10.1109/mis.2006.70. ISSN: 1541-1672. Arxivat 26 de novembre 2011 a Wayback Machine.
  18. Anderson, Michael; Anderson, Susan Leigh «Machine Ethics: Creating an Ethical Intelligent Agent» (en anglès). AI Magazine, 28, 4, 2007, pàg. 15–26. ISSN: 0738-4602.
  19. Boyles, Robert James M. «Philosophical Signposts for Artificial Moral Agent Frameworks» (en anglès). Suri, 6, 2, octubre 2017, pàg. 92–109.
  20. Asimov, Isaac. I, Robot (en anglès). Nova York: Bantam, 2008. ISBN 978-0-553-38256-3. 
  21. Evolving Robots Learn To Lie To Each Other, Popular Science, 18 agost 2009 (en anglès).