Sexta-feira, 10 de maio de 2019 - 12h55
A China está a estabelecer um "sistema de
pontos de crédito social" (1) para recompensar e punir o comportamento
social de seus cidadãos com pontos; no sistema é registado o comportamento das
pessoas; por exemplo: quem usa a bicicleta como meio de transporte, quem
pagou as facturas, quem visitou os pais, etc. Quem não se comporta bem ou tem
uma má pontuação social não recebe empréstimos, nem bilhetes de comboio, de
avião, etc. Nos USA há um sistema de crédito bancário que com o tempo poderia
também ele ser desenvolvido para controlo generalizado. Na Europa também há
países em que se nota uma tendência para controlar o cidadão através dos dados
bancários e das finanças. Já hoje, os algoritmos decidem quais os anúncios e a
propaganda aferida às tendências da pessoa e que se recebe no
Facebook/Smartphone. Naturalmente não há comparação entre estes países e
a ditadura de informação técnica (IT) chinesa, mas a sociedade corre o perigo
de caminhar nesse sentido: vigilância completa por poderes anónimos.
De notar que o Sistema de Crédito Social de
controlo na China aplica Big Data (para controlo rápido de dados) e ainda não a
IA. A criação e aplicação da IA terá consequências muito mais abrangentes.
O projecto de
orientações éticas da UE (2) para lidar com a Inteligência Artificial (IA) foi
agora (7.05.2019) apresentado por 52 especialistas de universidades, empresas e
da sociedade civil na intenção de garantirem regras que desenvolvedores,
aplicadores e usuários da IA devem observar para não fugirem aos direitos humanos
e princípios fundamentais.
A criação de sistemas de armas autónomas,
automóveis sem condutor, medicina computorizada trazem consigo a preocupação de
quem é que decide e até que ponto são respeitados os valores humanos e uma
humanidade equilibrada. É preciso criar-se regras para que o controlo exercido
pela pessoa não passe para segundo plano ou se abdique dele. Os drones
podem decidir por si mesmos sobre vida e morte. A indústria prefere, a nível
mundial, fazer adiar decisões (28 nações já assinaram tratado contra o
desenvolvimento de tais armas (a Alemanha não).
A IA não pode poder tudo nem determinar tudo…. Com
ela está em jogo o lugar da pessoa humana na Criação. De acordo com os
especialistas da UE, também se deveria impedir a criação de uma consciência
artificial com sentimentos humanos (Coisa propriamente impossível: uma
inteligência artificial alienada da humanidade e fora do controle humano
poderia até destruir os seres humanos).
No caso de sistemas inteligentes poderem criar uma
utopia restaria a questão se essa utopia não seria só para uma elite. Será
difícil de evitar a criação de massas proletárias e de pessoas carenciadas a
viver na dependência total. O saber tecnológico e de assistência a tais
sistemas será tão elevado que levará a criar poucos centros de apoio com uma
burocracia tecnológica de difícil acesso e deste modo monopólios que virão dar
razão a algumas teses de Karl Marx, só que numa outra perspectiva de um
totalitarismo comunista sócio do capitalismo de Estado (talvez no sentido de um
modelo chinês).
O seu emprego também poderá ser fonte de maior
justiça, mas é necessária uma atenção especial dado, em geral, serem os
investidores e produtores que determinam a comportamentos e a consequente
aceitação da oferta; o mercado obriga, como se vê no Google e Facebook. A
velocidade do desenvolvimento e dos grandes capitais que o fomentam levarão
tudo o que é pequenada (aquilo a que chamamos povo!) a ser arrastada pela sua
aragem e especialmente pelo poder normativo do factual. Quanto mais
inteligentes e complexas as máquinas ou robôs, mais indolente se pode tornar a
inteligência humana da generalidade, ficando reservado só para alguns o
conhecimento e sua determinação.
Quanto a possíveis erros dos sistemas, há que
distinguir entre os erros humanos (juiz) que são individuais e como tal
situáveis e limitáveis e os erros de um sistema ou programa IA, onde uma
decisão de um sistema de algoritmos poderia tornar-se num problema viral.
Segundo críticos do documento elaborado, o texto
fala demasiado do deve-se e da minimização de perigos parecendo exagerada a
precaução de uma ética que não se quer empecilho ao desenvolvimento.
Pessoas que criam esses sistemas de IA pretendem renunciar à sua
responsabilização pelas consequências, de algoritmos complexos que avaliam
enormes quantidades de dados para o sucesso e fracasso de uma decisão.
A China, que não se sente sujeita a standards
ocidentais cristãos da dignidade da pessoa humana e seus direitos, pode
tecnicamente distanciar-se e ganhar a corrida na concorrência. Daí a
necessidade de uma ética abrangente e universalmente aceite.
Na discussão
relativa à concorrência de quem conquistará os mercados com novos produtos, há
grupos progressistas que consideram as ideias cristãs de defesa da
personalidade humana como um atraso e um impedimento ao desenvolvimento da
ciência. Também por isso
o materialismo a espalhar-se mundialmente através de agendas luta tanto contra
a tradição ocidental devido à sua liderança na filosofia de defesa da dignidade
e dos direitos humanos.
Também por isso
há movimentos contra a ideia cristã de o Homem ser considerado a coroa da
Criação; é o caso de árias ONGs a atuar no Ocidente. Ele é, porém, sujeito e ao mesmo tempo objecto de
uma ética humana que o defenda e obrigue a ser responsável também perante toda
a criatura e responsável em relação ao futuro.
Uma Inteligência Artificial muito forte e
dominante, se ficasse apenas nas mãos de interesses económicos e ideológicos,
produziria rapidamente uma pequena elite privilegiada e uma maioria de “humanos
inúteis” em que, num futuro não distante, o seu tratamento com dignidade
poderia ser considerado um estorvo (isto num Zeitgeist em que certos parâmetros
de qualidade de vida parecem querer sobrepor-se à vida!).
Todos se
encontram a aprender, mas as pessoas que criam tais tecnologias, no momento da
sua aplicação deverão estar conscientes de serem responsabilizadas pelas
consequências - incluindo o pagamento de indemnizações.
Programar também
a ética
Será preciso programar nos sistemas IA também
planos de valores. As pessoas também usam as tecnologias para explorarem os
outros. Por isso é de grande importância não perder o controlo sobre elas e
sobre o seu uso.
A ditadura chinesa tem mais trunfos na mão do que
os sistemas democráticos ocidentais apesar das suas lóbis contaminadas. Isto
terá como consequência a elaboração de uma moral permeável no Ocidente. Quem
determina o ritmo da música é o capital e a indústria. Tudo se está a
formalizar em termos de viabilidade; as ideologias vão mudando e surgindo
conforme as necessidades.
Em todo o
discurso sobre a ética é, muitas vezes, esquecido que só é possível ética onde
houver diversidade. As tendências
igualitaristas, hoje em voga, correspondem a princípios antiéticos e
antinatureza e correspondem ao suborno da liberdade e da natureza. Os
padrões éticos e morais nunca são universais, são sempre culturalmente
determinados e profundamente enraizados nas pessoas. Não é possível em pouco
tempo a integração global de padrões éticos universais como podemos verificar
em relação aos direitos humanos. A ética de que se fala aqui destina-se a
proteger a pessoa humana da dependência total de interesses anónimos da
indústria e de robôs.
Os sistemas de inteligência artificial correspondem
a um poder computacional a que falta a alma humana.
Se na nossa sociedade já a maioria dos cidadãos não
tem uma ideia do porque pensa como pensa, devido à distância intelectual para
com os criadores de consciência social, então com a IA só uma reduzida
percentagem da população poderia pensar por si mesma. Se não se estiver
atento nem nos precavermos, teremos uma sociedade de alguns gigantes e uma
massa de pigmeus! No sistema atual ainda vamos tendo a ilusão de que a maior
parte das coisas são determinadas por nós mesmos, mas com a ainda utópica IA
descontrolada até essa ilusão desapareceria.
Como simples
princípio de orientação ética poderiam ser as Leis da Robótica (3) ou
princípios idealizados por Isaac Asimov em 1950: (a) um robô não pode ferir um
ser humano ou, por inação, permitir que um ser humano sofra algum mal. (b) um
robô deve obedecer às que lhe são dadas por um humano - a menos que tal ordem
colida com a regra um. (c) um robô deve proteger a sua existência desde que
esta protecção não colida com a regra um ou dois. (d) um robô não pode causar
mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
Em princípio, na automatização, a deliberação deve
ser sempre da responsabilidade humana e não anonimizada. A comissão ética
europeia também se tinha pronunciado neste sentido (4).
© António da Cunha Duarte
Justo
Teólogo e Pedagogo
Pegadas do Tempo, https://antonio-justo.eu/?p=5417
Em recente pronunciamento, na véspera da reunião do Conselho Nacional de Política Energética (CNPE) em 10/12/2024, onde se decidiria pela conclusão,
Qual IPTV para tv Samsung é ideal pra você
As TVs Samsung modernas oferecem uma experiência única com IPTV. O sistema Tizen permite instalar aplicativos IPTV diretamente na TV. Não é necessár
5 Dicas de poker para melhorar o nível no jogo
Seja em mesas físicas ou em plataformas digitais, o poker exige muito mais do que apenas sorte: é preciso habilidade, análise e prática constante para
Comunicação como ferramenta de integração
Todos os funcionários públicos ou privados querem conviver num ambiente saudável, dotado de uma psicosfera positiva, incentivadora e com relações ha