Geral Opinião

No G7 o Papa foi falar de ética e a inteligência artificial

Foto: Swissinfo

O Papa Francisco foi falar ao G7 sobre o tema do uso da inteligência artificial na guerra, no sentido que que se evite que esta seja utilizada em sistemas de armas, robots e drones, com capacidades de decisão autónoma, ou seja, que estas sem intervenção humana, possam decidir se, sobre o quê, onde, quando e porquê, podem matar determinado indivíduo ou grupo de indivíduos, ou seja, tenham capacidades de “targeting” autónoma.

Este tem sido um tema importante e amplamente discutido entre teólogos e filósofos, pois a inteligência artificial existente já foi utilizada, pela Turquia e por Israel, tanto em robots, como em drones, com essa capacidade de decidirem autonomamente, se tiram ou não a vida a determinados indivíduos, ou grupo de indivíduos, algo que para todos estes pensadores ultrapassa, todas as linhas vermelhas da ética.

A comunidade de pensadores referida afirma em uníssono, que embora o direito à defesa seja algo inalienável, desde que  Santo Agostinho definiu o conceito de guerra justa, ou seja o homem tem o direito a matar em caso de se estar a defender dum ataque, “Jus in bellum”, mas não tem o direito de o fazer de qualquer forma , “Jus in bellum”.

O “Jus in bellum” é pois o conceito ético que tem que estar subjacente no desenvolvimento de novos drones e robots, e à própria utilização dos já existentes, tendo para esse efeito definido os conceitos de “Algorética” e a “Roboética”.

O Papa baseado nestes conceitos e no pressuposto moral e ético, tentou ontem no G7 convencer os decisores políticos a não ultrapassar os limites da ética na guerra e no desenvolvimento gentil, que ele tem definido, amiúdes vezes, como um desenvolvimento,  que garanta o progresso que promova o bem-estar, e não unicamente o progresso pelo progresso.

O tema é muito sensível e difícil de se conseguir almejar, a não ser que nos sistemas de armas já referidos, seja proibida a utilização de qualquer tipo de inteligência artificial, pois os algoritmos inseridos em qualquer robot ou drone inicialmente pelos próprios programadores, podem ter “out comes” diferentes dos por eles pretendidos, porque qualquer máquina dotada de IA, vai por ela própria  aprendendo como os seres humanos, ou seja, vai de forma independente relacionando coisas, factos e conceitos, e tem capacidades de desenvolver por si própria novos algoritmos.

Em resumo, independentemente da vontade dos políticos e dos militares as armas letais dotadas de IA têm capacidade de tomar qualquer tipo de decisões autonomamente.

Nuno Pereira da Silva
Coronel na Reforma

Tags