
Las leyes y los fundamentos de la robótica son un conjunto de leyes, principios o reglas que pretenden ser un marco fundamental para subrayar el comportamiento de los robots que están diseñados para tener un alto grado de autonomía. Aunque todavía no existen robots de este grado, se esperan ampliamente con los avances de la tecnología.
También se han representado en películas de ciencia ficción y son un tema activo de investigación en los campos de la robótica y la inteligencia artificial. El campo de la robótica, en constante evolución, está produciendo una amplia gama de dispositivos, desde aspiradoras autónomas hasta drones utilizados en el ejército y líneas de producción completas en fábricas.
La inteligencia artificial y el aprendizaje automático, al mismo tiempo, están cada vez más detrás de gran parte del software que afecta nuestras vidas a diario, incluso si estamos buscando en Internet o obteniendo servicios gubernamentales asignados a nosotros.
Todos estos desarrollos están culminando muy rápidamente en una época en la que los robots de todo tipo se generalizarán en casi todos los aspectos de la sociedad humana y las interacciones entre humanos y robots aumentarán de manera muy significativa.
¿Cuáles son las tres leyes de la robótica?
Las tres leyes de la robótica son un conjunto de reglas que fueron diseñadas por un autor de ciencia ficción llamado Isaac Asimov. También se conocen como leyes de Asimov. Fueron introducidos por primera vez en su cuento de 1942, titulado “Runaround”. Pero son más conocidos por la colección que publicó en 1950 titulada “Yo, Robot”.
Primera ley
Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
Segunda ley
Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
Tercera ley
Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.
Estas tres leyes forman una filosofía organizativa y un tema principal en toda la ficción basada en robótica de Isaac Asimov. Estas tres leyes aparecen con frecuencia en su serie Robot y otras historias vinculadas a ella.
¿Por qué son importantes estas leyes?
Estas leyes son importantes porque son una medida de seguridad para los humanos. Fueron diseñados para proteger a los humanos en sus interacciones con los robots.
Las leyes de Isaac Asimov todavía se mencionan como una plantilla que guía el desarrollo de los robots. En 2007, el gobierno de Corea del Sur propuso una “Carta de ética de los robots” que reflejaba las leyes de Asimov.
¿Son reales las tres leyes de la robótica?
Las tres leyes de la robótica no son reales en el sentido de que no existen robots que hayan sido programados con estas leyes. A medida que nos acercamos inevitablemente al mundo imaginado por Issac Asimov, hay más y más debates sobre si existe la necesidad de leyes similares a las de Asimov que regirán el comportamiento de los robots.
La mayoría de la gente argumenta que no hay necesidad de tales leyes, ya que los robots solo pueden hacer lo que están programados para hacer y que el temor sobre el potencial de los robots para destruir a la humanidad es infundado. Y solo está arraigado en nuestra cultura debido al hecho de que las historias y películas de ciencia ficción utilizan tramas en las que los robots destruyen a sus creadores.
También hay conflictos reales entre máquinas y humanos. Por ejemplo, en la revolución industrial en Europa, existía un profundo miedo a las máquinas y su manifiesta capacidad para alterar el mundo de formas que tendrán una profunda influencia en muchas personas.
El miedo a las máquinas era realmente grande en aquellos días en que había un movimiento para destruir las máquinas de tejer y no se detuvo hasta que el Parlamento convirtió la demolición de máquinas en un crimen capital.
Debido a algunas de estas razones, se argumenta que el miedo a los robots proviene de la posibilidad de que otros humanos los usen para destruir el modo de vida de la humanidad de formas incontrolables y no el miedo a que los robots se apoderen de nosotros y nos destruyan.
Sin embargo, las leyes de Asimov siguen siendo un concepto que guía el desarrollo de robots en el avance de la tecnología.
¿Son defectuosas las tres leyes de la robótica?
En los libros de Isaac Asimov, las tres leyes se han incorporado a todos los robots y no pueden pasarse por alto. Están destinados a ser una medida de seguridad para la humanidad. Las historias centradas en robots de Asimov involucran a robots que se comportan de manera contraria a la intuición, que es el resultado de cómo cada robot aplica las tres leyes en cualquier situación en la que se encuentre.
Estas leyes originales son defectuosas en el sentido de que llevan a los robots a actuar de formas inusuales, ya que no cubren todas las eventualidades o situaciones. Las tres leyes originales han sido modificadas por el propio Asimov en sus últimos libros para mejorar aún más la forma en que los robots interactúan con los humanos y entre ellos.
En sus últimos libros, donde los robots asumen la responsabilidad del gobierno de planetas enteros y civilizaciones humanas, Isaac Asimov agrega una cuarta o cero ley que debe preceder a las tres leyes originales.
Ley Cero
Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Cuando Isaac Asimov ideó sus tres leyes de la robótica, se cree que estaba pensando en los androides. Imaginó un mundo donde los robots actuarían como sirvientes y, por lo tanto, necesitarían un conjunto de reglas de programación que evitarían que causen daño a los humanos.
En los más de 75 años transcurridos desde sus publicaciones que presentan sus pautas éticas, se han producido avances tecnológicos significativos y ahora existe una concepción diferente de cómo se verán los robots e incluso cómo los humanos interactuarán con ellos.
Problemas que enfrentan las leyes de la robótica
Uno de los principales problemas que enfrentan estas leyes hoy en día es que los robots de hoy parecen ser más variados y, en algunos casos, mucho más simples que los mencionados en las historias de Asimov. Por tanto, surge la necesidad de considerar si debería haber un umbral de complejidad por debajo del cual estas reglas podrían no ser necesarias.
Tenemos robots que han sido programados para realizar una única tarea predeterminada. Entonces es muy difícil creer que un robot aspirador pueda tener la capacidad de dañar a los humanos o incluso requerir la capacidad de obedecer órdenes.
También hay robots que han sido diseñados para operar en entornos de combate militar. Están diseñados para espiar, eliminar bombas y transportar cargas. Estos propósitos parecen estar en línea con las leyes de Asimov, ya que se crearon para limitar en gran medida el riesgo de vidas humanas en entornos muy peligrosos.
También se puede suponer que el objetivo militar final en robótica será crear robots que estén armados y puedan desplegarse en el campo de batalla. En este escenario, la primera ley de no dañar a los humanos o permitir que sufran daños se vuelve muy problemática, ya que el papel de los militares es salvar la vida de los civiles y sus soldados al dañar la mayoría de las veces a sus enemigos en el campo de batalla.
También se plantea la cuestión de qué puede considerarse perjudicial para los seres humanos. Algunos robots están diseñados para ayudar en el cuidado de los humanos y para realizar ciertas funciones, todo lo cual podría llevar a los propietarios a desarrollar vínculos emocionales con estos robots.
Esto eventualmente podría conducir a daños emocionales o psicológicos que pueden surgir de las acciones de los robots y pueden no ser aparentes hasta muchos años después de que finalice la interacción humano-robot. Este problema también se aplica a máquinas simples como la inteligencia artificial que utilizan el aprendizaje automático para crear música que provoca ciertas emociones humanas.
En inteligencia artificial, el objetivo es hacer robots que puedan pensar y actuar racionalmente como lo hacen los humanos. Pero la emulación del comportamiento humano no se ha investigado bien y solo se ha investigado en áreas limitadas.
Con esto en mente, un robot solo podrá operar dentro de una esfera limitada y las aplicaciones racionales de las leyes serán altamente restrictivas. Además, con nuestra tecnología actual, un sistema que razonara y tomara decisiones basadas en estas leyes necesitaría una potencia computacional considerable que no es rentable en este momento.
Otras variaciones de las tres leyes de la robótica
Con todos estos problemas que enfrentan las leyes de la robótica, muchas personas han postulado un gran número de variaciones. algunas de estas variaciones postuladas son;
Por Roger MacBride Allen
Su modificación de las leyes sigue la teoría de que los robots deben ser socios y no esclavos y tiene las siguientes diferencias;
- La primera ley se modifica para eliminar la cláusula de ‘inacción’
- La segunda ley se modifica para exigir cooperación y no obediencia.
- La tercera ley también se modifica para no ser reemplazada por la segunda ley.
- También agregó una cuarta ley que permite al robot hacer lo que quiera siempre que no entre en conflicto con las leyes anteriores.
Otras adiciones a las leyes incluir;
Una cuarta ley, en 1974 de Lyuben Dilov, que establece que “un robot debe establecer su identidad como robot en todos los casos”.
Nikola Kesarovski agregó una quinta ley que establece que, “Un robot debe saber que es un robot”.
En 2011, el Consejo de Investigación en Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación en Artes y Humanidades (AHRC) de Gran Bretaña también publicaron conjuntamente su propio conjunto de cinco leyes.
Se han agregado muchas otras leyes y variaciones a estas leyes originales y podrían continuar agregándose a medida que avanzamos en el campo de la robótica. Las leyes de Asimov, sin embargo, ofrecen principios fundamentales para cualquiera que busque crear un código robótico hoy.