top of page

Autor del artículo: Rodrigo Ramele, ingeniero en Innovación y Tecnologías Emergentes de Baufest.

Fecha de publicación; 20 septiembre 2022

Dirección web: https://www.expoknews.com/etica-en-la-inteligencia-artificial/

Palabras clave:  inteligencia, artificial, seres humanos, tecnologia, maquinas

​

Las máquinas no pueden determinar qué es "bueno" o "malo". Más bien, esa responsabilidad siempre debe recaer en las personas que los usan, crean y programan para que su automatización de una o más tareas siempre se realice dentro de un marco regulatorio ético.

Precisamente, este es uno de los temas que ha desatado un acalorado debate en torno a la robótica: A medida que avanza la tecnología, ¿serán capaces estos dispositivos de definir su propio marco ético?

Pero desde esta perspectiva, ¿qué es un robot? Se consideran "computadoras capaces de percepción, análisis y acción" y tienen una "corporeización" física y un grado de autonomía en el mundo real. Es decir, muy parecido a lo que leemos o vemos en las historias o cintas de ciencia ficción que los describen como máquinas inteligentes.

Al servicio de la humanidad

La discusión sobre qué puede ser ético para estos aparatos lleva 80 años. Las tres leyes de la robótica de Isaac Asimov son bien conocidas por los aficionados a los relatos futuristas. Mediante sus postulados redactados en 1942, se iniciaron los esfuerzos por establecer la convivencia entre las máquinas y los seres humanos:
Un robot no dañará a una persona; o, por inacción, no permitirá que sufra daño.
Un robot obedecerá las órdenes que le sean dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley.
Un robot protegerá su propia existencia siempre que dicha protección no entre en conflicto con la primera o la segunda ley.
A ocho décadas de estos enunciados, los primeros indicios de intentos de regulación comienzan a hacer su aparición. El año pasado, el Ministerio de Ciencia y Tecnología de China publicó un código ético que pretende regular los modelos de Inteligencia Artificial existentes o en desarrollo. Por su parte, Europa tenía un prototipo de reglamento cuyo objetivo era establecer lineamientos para el desarrollo de una inteligencia artificial confiable. De esta forma la nación asiática dio un paso adelante en línea con su estrategia de liderar esta tecnología.
La guía del país oriental prioriza el «pleno poder de decisión’» de los humanos respecto a las máquinas, muy en línea con las leyes de la robótica de Asimov.
De acuerdo con el periódico «The South China Morning Post» el documento elaborado por el gobierno chino «Especificaciones Éticas para Inteligencias Artificiales de Nueva Generación» propone «asegurarse que la IA siempre esté bajo el control de los seres humanos» y que éstos tengan «pleno poder de decisión» sobre ésta.


Cambios obvios

En lo inmediato, esta disposición responde a la necesidad de establecer un marco regulatorio para los algoritmos de recomendación de contenido de Internet, basados plenamente en IA, con los cuales es posible segmentar la publicidad que aparece en buscadores y mails.
Como empresa que impulsa la transformación digital y la innovación, entendemos que esta reglamentación es parte de la evolución hacia un desarrollo y comercialización más responsable de la tecnología en todo el mundo.
Por supuesto, mientras nuevas o mejores soluciones digitales aparezcan, será necesario tener regulaciones más precisas en torno a cómo las compañías utilizan modelos como el de la IA o la automatización en general.
Así, mientras estos temas se debaten, las empresas de todos los sectores deberán preocuparse por entender cuáles son las reglas que especifican el uso de este tipo de tecnología y cómo impactan en la relación con sus clientes y en la sociedad en general.

Ética en la Inteligencia Artificial: tecnología bajo el control de los seres humanos

etica-en-la-AI_.jpeg
bottom of page