martes 22/9/20

Investigadores encuentran la fórmula para que la inteligencia artificial tome decisiones éticas e imparciales

Robot - Zorabots
Robot - Zorabots

Una fórmula matemática, encontrada por investigadores de Suiza y Reino Unido, es la protagonista de que sea posible ayudar a los reguladores de la inteligencia artificial a que no tomen decisiones que no sean éticas, sesgadas y que sean perjudiciales.

Los colaboradores de la Universidad de Warwick, el Imperial College de Londres y EPFL, Lausana, junto con la firma de estrategia Sciteb Ltd, creen que hoy en día, puesto que las decisiones cada vez tienen menor influencia humana, debe haber un impulso para eliminar el riesgo de que se tomen malas decisiones.

En el ámbito comercial, la inteligencia artificial está cada vez más presente. Sirve, por ejemplo, para determinar precios de productos.

Dentro de la inteligencia artificial hay muchas variantes de estrategias que elegir, pero se enfrentan al problema de la ética, puesto que pueden no ser morales, lo que conlleva una penalización si los reguladores imponen fuertes multas o los clientes lo boicotean.

En este sentido, los matemáticos y estadísticos han visto la necesidad de desarrollar un 'Principio de optimización poco ético', que daría la fórmula de estimación del impacto de las decisiones tomadas por la inteligencia artificial. De esta manera se ayudaría a los reguladores y empresas.

"Se puede esperar que la optimización elija desproporcionadamente muchas estrategias poco éticas", ha explicado el profesor Robert MacKay, del Instituto de Matemáticas de la Universidad de Warwick. "El Principio también sugiere que puede ser necesario repensar la forma en que la IA opera en espacios estratégicos muy grandes, de modo que los resultados poco éticos se rechacen explícitamente en el proceso de optimización/aprendizaje".

Comentarios