Si un robot con altas capacidades, autónomo e inteligente en un alto grado, comete un daño... ¿El responsable es el humano que lo posee o la propia máquina? Mientras esta clase de autómatas están por venir, semejante cuestión espera una respuesta en el seno de la Unión Europea.
Una resolución del Parlamento Europeo, fechada el 16 de febrero de 2017, traslada un conjunto de recomendaciones a la Comisión Europea sobre normas de derecho civil relativas a robótica. En ella, en un párrafo sobre posibles soluciones jurídicas, se menciona una expresión tan interesante como controvertida: la de “personalidad electrónica”.
“Crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente”.
Los actos de los robots serían responsabilidad de los propios robots
La materialización legislativa de esta propuesta supondría que los actos de los robots, tanto los perniciosos como los de cualquier otra índole, serían asumidos por los propios robots y no por sus propietarios o responsables. Al mismo tiempo, expertos consideran que una ley de esta naturaleza otorgaría “derechos humanos” a los robots. Ashley Morgan, del estudio internacional Osborne Clarke, es de esta opinión.
En declaraciones a ‘The Guardian’, hechas tras la aprobación del informe en el que se basa la resolución de la Eurocámara, Morgan se planteaba varias dudas: “Si yo creo un robot, y ese robot crea algo que podría ser patentado, ¿debo poseer yo esa patente o debería ser del robot? Si vendiera el robot, ¿debería ir con él la propiedad intelectual que ha desarrollado?”. Dice que estas preguntas no son de fáciles respuestas y apuntan, precisamente, al corazón de este debate.
Por su parte, la diputada luxemburguesa Mady Delvaux, autora del informe, dijo al periódico británico que “un número cada vez mayor de áreas de nuestra vida cotidiana están cada vez más afectadas por la robótica”. Por ello, considera necesariamente urgente la creación de un marco jurídico europeo sólido que permite abordar esta situación “y garantizar que los robots están y seguirán al servicio de los seres humanos”.
Quienes abogan por esa personalidad electrónica en este paso adelante en cuanto a legislación de la robótica, desde los propios representantes políticos europeos como algunos fabricantes del sector y agentes relacionados, defienden que la propuesta es “de sentido común”.
El estatuto propuesto para los robots sería equiparable a la personalidad jurídica que tienen las empresas, defienden tanto la política Delvaux como los partidarios del cambio legal. Como recoge ‘Politico’, mantienen que “la personalidad jurídica no convertiría a los robots en personas virtuales que pueden casarse y beneficiarse de los derechos humanos”.
Lo que sí permite esa consideración a las compañías es participar en procesos judiciales, tanto como demandante como demandado, y eso sería lo que pretenderían trasladarse a la robótica.
“Dar derechos a un robot es una idea peligrosa”
A medida que la necesidad de un marco jurídico alrededor de la robótica parece más imprescindible e inaplazable, ideas como las propuestas por la resolución de la Eurocámara choca con la opinión de una parte de la sociedad e incluso de expertos en inteligencia artificial y robótica.
Hace poco más de un mes, más de dos centenares de expertos de catorce países europeos dirigieron una carta abierta al presidente de la Comisión Europea, Jean-Claude Juncker, y al resto de dirigentes de la Unión Europea con responsabilidad en esta materia. ¿Su objetivo? Manifestar su rechazo a la “personalidad electrónica” que la directiva sobre robótica e inteligencia artificial que se prepara pretende otorgar.
Ellos, “los expertos en inteligencia artificial y robótica, los líderes del sector, los expertos en derecho, medicina y ética”, confirman que el establecimiento de normas comunitarias para la robótica y la inteligencia artificial es pertinente para garantizar un alto nivel de seguridad a los ciudadanos de la Unión Europea y, a la vez, fomentar la innovación.
Sin embargo, no les gusta en absoluto la idea de considerar a los robots “personas electrónicas” justificando la medida, según ellos, “por la afirmación errónea de que la responsabilidad por daños sería imposible de probar”.
“Desde una perspectiva técnica, esta afirmación ofrece muchos sesgos basados en una sobrevaloración de las capacidades reales incluso de los robots más avanzados, una comprensión superficial de lo impredecible y de las capacidades de autoaprendizaje y una percepción robótica distorsionada por la ciencia ficción y algunos anuncios de prensa sensacionalistas recientes”.
El grupo de expertos considera, asimismo, que este estatuto robótico no puede derivar del modelo de persona física porque entonces “el robot tendría derechos humanos, como el derecho a la dignidad, el derecho a su integridad, el derecho a la remuneración o el derecho a la ciudadanía, enfrentándose así directamente a los Derechos Humanos”. Algo que también entraría en contradicción con la Carta de los Derechos Fundamentales de la Unión Europea y el Convenio Europeo para la Protección de los Derechos Humanos y de las Libertades Fundamentales.
Tampoco, sostienen, su estatuto puede derivar del modelo de persona jurídica, “ya que implica la existencia de personas humanas detrás de la persona jurídica para representarla y dirigirla” y no sería el caso; ni puede derivar del modelo de fideicomiso anglosajón. “Este régimen es extremadamente complejo, requiere competencias muy especializadas y no resolvería la cuestión de la responsabilidad”, según explican.
Por todo ello, creen que la Comisión Europea sobrevalora las capacidades reales actuales de los robots, que las medidas que se están considerando solamente son buenas para los fabricantes y piden cautela a la hora de legislar.
“La Unión Europea debe impulsar el desarrollo de la industria de la IA y la robótica en la medida en que limite los riesgos para la salud y la seguridad de los seres humanos. La protección de los usuarios de robots y de terceros debe estar en el centro de todas las disposiciones legales de la UE.
La Unión Europea debe crear un marco viable para que la IA y la robótica sean innovadoras y fiables, con el fin de estimular aún más los beneficios para los pueblos europeos y su mercado común”.
En la línea de estos expertos se manifestó también Paul Griseri, profesor de la Universidad de Middlesex, en una columna de opinión sobre el asunto publicada poco después de la aprobación del informe del Comité de Asuntos Jurídicos de la Unión Europea.
En el texto, titulado ‘Dar derechos a un robot es una idea peligrosa’, el docente se muestra tajante: “El Comité de Asuntos Jurídicos de la Unión Europea está caminando a ciegas en un pantano si piensa que la personalidad electrónica protegerá a la sociedad de la evolución de la IA. La analogía con la personalidad corporativa es desafortunada, ya que esto no ha protegido a la sociedad en general, sino que ha permitido a los propietarios de empresas promover sus propios intereses”.
Griseri, sostiene que la personalidad de las empresas ha permitido que compañías hayan promovido sus propios intereses para interferir en procesos electorales, y pone como ejemplo el caso del movimiento Citizens United de los Estados Unidos. Considera que las compañías aprovecharán cada posibilidad que les ofrezca el marco regulatorio para impulsar su negocio por encima de todo.
“La persona electrónica protegerá los intereses de unos pocos, a expensas de muchos. Tan pronto como se publiquen las reglas de la personalidad robótica, los creadores de dispositivos de IA ‘ajustarán’ sus máquinas para aprovechar al máximo esta oportunidad, no porque estas personas sean malvadas, sino porque eso forma parte de la lógica de cualquier actividad comercial”.
El profesor asegura que de la misma manera que el estatus otorgado a las compañías ha sido utilizado de una manera que sus impulsores originales nunca esperaron, con la personalidad electrónica que impulsa el Parlamento Europeo sucederá lo mismo. Esta “concesión de derechos” dice que tendrá consecuencias impredecibles. “¿Cómo podríamos negarle a un robot sofisticado el derecho a participar en la toma de decisiones de la sociedad, es decir, a votar? ¿Y sobre qué base podríamos negarle a una máquina inteligente el derecho a formar parte de un jurado?”, se pregunta.
El director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramon López de Mántaras, se manifestaba en el mismo sentido en declaraciones a ‘La Vanguardia’ el pasado mes de abril.
Durante décadas, asegura, “seguirá siendo posible determinar la responsabilidad de acciones erróneas por parte de una máquina, y esta responsabilidad siempre será de las personas”. Además, coincidiendo con la carta abierta de protesta, cree que la personalidad electrónica “es escudarse en la máquina para que no se puedan exigir responsabilidades a las personas”. El debate sobre si una consideración como esta resultaría positiva o, en cambio, libraría a los fabricantes de responsabilidad en los actos de los robots continúa mientras el futuro legal de la robótica no se ha decido formalmente en la Unión Europea.