Comunicación de la Universidad Tecmilenio

La Inteligencia Artificial y la Responsabilidad Humana

Escrito por Redacción Nacional de Comunicación | 20-dic-2019 23:13:16

Cada día, lo que conocemos como ciencia ficción va convirtiéndose en realidad. La Inteligencia Artificial ha tomado jugada en gran medida en nuestras actividades cotidianas. Es por esto que la inteligencia artificial supone un problema de responsabilidad humana. Existen algunas preguntas sobre si la inteligencia artificial puede ser propietaria de una patente o sobre la responsabilidad de la inteligencia artificial al administrar programas de asistencia social. Debido a que este tema es nuevo, esto podría suponer dudas y es necesario estudiar casos de responsabilidad en donde la inteligencia artificial estuvo involucrada para tener precedentes y mayor certeza respecto a este tema.

Dabus y Alston

Hace unos meses, juristas de la Unión Europea, del Reino Unido y de Estados Unidos presentaron solicitudes para que un programa de inteligencia artificial llamado Dabus fuera reconocido como el autor de las patentes de dos productos. Estos productos eran un contenedor para comida que cambiaba de forma y una linterna que irradiaba luz intermitente en situaciones de emergencia. Este programa Dabus no fue diseñado para resolver problemas sino para crear nuevas ideas. Según su creador Stephen Thaler esto “…es tradicionalmente considerada la parte mental del acto inventivo…”1.

Relacionado con lo anterior, hace unos meses el relator especial de la ONU, Philip Alston, presentó un informe en el que estudiaba al “Estado de bienestar digital” el cual se refiere a un sistema que sirve para hacer más eficientes a los programas de asistencia social utilizando inteligencia artificial. Alston explica que estos mecanismos pueden estar dañando a “…la calidad vida de los colectivos más vulnerables...”2. El relator pone como ejemplo al programa SyRI (System Risk Indication), de Países Bajos, que utiliza un modelo no revelado que, en teoría, identifica a las personas que pueden cometer fraude al solicitar ayuda. Alston, sin embargo, dice que es necesario "…cierto grado de transparencia y garantías de que determinados grupos no están siendo injustamente seleccionados…"2. Además, menciona que el sistema SyRI carecía de una base legal y que continúa siendo objeto de debate en la corte.  

Con relación a lo anterior, The Guardian publicó un reportaje en donde se detalla cómo en la India el sistema biométrico Aadhaar, que sirve para permitir el acceso a las tiendas de racionamiento, ocasionó la muerte de una persona por inanición porque su huella dactilar no fue aceptada por el sistema. Respecto a este sistema, Alston dice que “…fue originalmente implementado sin un marco legal.”3.

Estos casos están relacionados. En el primero, se propone que una inteligencia artificial sea reconocida como la autora de una patente. Es decir, se intenta responsabilizar a la inteligencia artificial del diseño de un producto. En el segundo, el uso de inteligencia artificial en los programas de asistencia social está ocasionando la falta de transparencia y garantías que han dado como resultado que las personas se deslinden de sus responsabilidades en favor de un sistema más eficiente, lo que ha ocasionado incluso la perdida de la vida humana.

Esto lleva a cuestionarse: cuando se producen daños provocados por el uso de la inteligencia artificial ¿quién es responsable?

 

Vehículos Tesla

Para tener un contexto relacionado con lo anterior, se pueden estudiar los incidentes de los vehículos Tesla. Por ejemplo, el caso ocurrido en Handan, China en 2016. En este caso, un vehículo Tesla Model S se impactó contra la parte trasera de un camión estacionado mientras viajaba en una carretera. Existe un video tomado desde el interior del vehículo donde se muestra que no hubo tumultos ni sonidos por parte del conductor ni tampoco hubo intentos de frenado. Respecto a este tema, el manual de usuario de Tesla específica que no se pueden detectar todos los objetos y que los vehículos Tesla no pueden frenar por vehículos estacionados cuando se conduce a más de 80 km/h, en especial si un vehículo se mueve del camino y un objeto inmóvil aparece. Además, Tesla ha expresado que su volante automático está en fase de pruebas, requiere las manos del conductor en el mismo y que el conductor es responsable de cuidar el sistema.

Otro incidente ocurrió el mismo año en Willinston, Florida. En esta ocasión, un Model S operando en piloto automático se impactó contra un tráiler que iba cruzando el camino. Aunque la empresa Tesla admitió que su cámara falló al no reconocer el tráiler blanco contra el cielo brillante, la Junta Nacional de Seguridad en el Transporte encontró que el conductor no estaba prestando atención al camino. Esta misma junta concluyó en su reporte que el conductor tuvo un exceso de confianza respecto de la automatización de vehículos y que, además, utilizó este sistema de forma inconsistente con las instrucciones y advertencias del fabricante.

 

Reflexión

Lo anterior, hace visible que la responsabilidad es siempre humana al utilizar inteligencia artificial. En el caso de Tesla, la empresa se responsabiliza al explicar al usuario cómo debe utilizar las ventajas del sistema de piloto automático. En el caso de los conductores involucrados en los accidentes, es evidente su irresponsabilidad al no seguir las instrucciones de los manuales de usuario, principalmente al no tener las manos sobre el volante.

Volviendo a los casos de Dabus y del reporte de Alston, estos pueden suponer problemas de responsabilidad en un futuro cercano. Por un lado, Dabus podría suponer problemas legales porque existiría confusión respecto a quién responsabilizar en caso de un daño, suponiendo que Dabus fuera reconocida como autora de una patente. Mientras que, por otro lado, el reporte de Alston muestra cómo en la actualidad los programas de asistencia social administrados por la inteligencia artificial ocasionan la falta de transparencia y garantías que terminan ocasionando daños a la salud y a la vida humana. Es entonces cuando se vuelve necesario remitirnos a casos como los de los vehículos Tesla para evitar vacíos legales. Como se vio en los incidentes de Tesla, la responsabilidad solo podía ser del conductor o de la empresa, pero nunca de la inteligencia artificial. Y esto es así porque la inteligencia artificial es solo una herramienta que facilita el trabajo. En otras palabras, se trata de un apoyo y no de un reemplazo. Esto significa que, al utilizar la inteligencia artificial, la responsabilidad es únicamente humana.

La inteligencia artificial facilita y apoya nuestras actividades. La inteligencia artificial nos proporciona una solución cómoda que nos ahorra tiempo y esfuerzo. Pero siempre hay que estar conscientes de que se trata de una herramienta de trabajo y no de algo igual o similar a una persona. Esto se debe a que entender a la inteligencia artificial como una persona podría llevar a que las personas se deslindaran de sus responsabilidades y ocasionaran daños. La responsabilidad es solo humana cuando se utiliza a la inteligencia artificial. La inteligencia artificial seguirá avanzando y mejorando con el tiempo, pero aún con esas mejoras debe seguir siendo entendida solo como una herramienta de trabajo para los humanos. 

 

Referencias bibliográficas:

  1. Kelion, L. (2019, Agosto 1). AI system 'should be recognised as inventor'. BBC. Descargado el 19 de Diciembre de 2019, de https://www.bbc.com/news/technology-49191645
  2. Merino, M. (2019, Octubre 20). La ONU preocupada por un modelo de ‘estado de bienestar digital’ que va dejando a la política social en manos de algoritmos. Xataka. Descargado el 19 de Diciembre de 2019, de https://www.xataka.com/inteligencia-artificial/onu-preocupada-modelo-estado-bienestar-digital-que-va-dejando-politica-social-manos-algoritmos
  3. Alston, P. (2019, Octubre 11). Report of the Special rapporteur on extreme poverty and human rights. Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos. Descargado el 19 de Diciembre de 2019, de https://www.ohchr.org/Documents/Issues/Poverty/A_74_48037_AdvanceUneditedVersion.docx
  4. (2019, Agosto 2). Solicitan a agencias de patentes de EE.UU. y Europa reconocer a un programa de inteligencia artificial como inventor de dos productos. RT. Descargado el 19 de Diciembre de 2019, de https://actualidad.rt.com/actualidad/323001-eeuu-europa-inteligencia-artificial-patentes-inventor
  5. Pilkington, E. (2019, Octubre 14). Digital dystopia: how algorithms punish the poor. The Guardian. Descargado el 19 de Diciembre de 2019, de https://www.theguardian.com/technology/2019/oct/14/automating-poverty-algorithms-punish-poor
  6. Felton, R. (2018, Febrero 27). Two Years On, A Father Is Still Fighting Tesla Over Autopilot And His Son's Fatal Cras. Jalopnik. Descargado el 19 de Diciembre de 2019, de https://jalopnik.com/two-years-on-a-father-is-still-fighting-tesla-over-aut-1823189786
  7. Boudette, N. (2016, Septiembre 14). Autopilot Cited in Death of Chinese Tesla Driver. The New York Times. Descargado el 19 de Diciembre de 2019, de https://www.nytimes.com/2016/09/15/business/fatal-tesla-crash-in-china-involved-autopilot-government-tv-says.html
  8. Stewart, J. (2018, Agosto 27). Why Tesla's Autopilot Can't See a Stopped Firetruck. Wired. Descargado el 19 de Diciembre de 2019, de https://www.wired.com/story/tesla-autopilot-why-crash-radar/?verso=true
  9. Boudette, N. (2017, Enero 19). Tesla’s Self-Driving System Cleared in Deadly Crash. The New York Times. Descargado el 19 de Diciembre de 2019, de https://www.nytimes.com/2017/01/19/business/tesla-model-s-autopilot-fatal-crash.html
  10. (2016, Mayo 7). National Transportation Service Board, “Collision Between a Car Operating With Automated Vehicle Control Systems and a Tractor-Semitrailer Truck Near Williston, Florida May 7, 2016. National Transportation Service Board. Descargado el 19 de Diciembre de 2019, de https://www.ntsb.gov/investigations/AccidentReports/Reports/HAR1702.pdf

 

 

Autor: Kevin Alberto Altamirano Sánchez. 

Alumno de Maestría en Gestión de Tecnologías de la Información de Tecmilenio Online.