Inteligência artificial: “deadbots” podem falar por você após sua morte, mas quão ético é isso?

Inteligência artificial: “deadbots” podem falar por você após sua morte, mas quão ético é isso?

Compartilhe

Ninguém mais vai morrer depois da inteligência artificial

No site The Conversation, Sara Suárez-Gonzalo, pesquisadora da Universitat Oberta de Catalunya, escreve sobre como a inteligência artificial está cada vez mais se infiltrando no nosso cotidiano, desafiando nossos valores morais e sociais e as regras que os governam:

Hoje em dia, assistentes virtuais ameaçam a privacidade de casa; aplicativos de notícias moldam como entendemos o mundo; sistemas de predição de riscos dizem a assistentes sociais quais crianças devem ser protegidas de abusos; ferramentas de contratação baseadas em dados avaliam suas chances de conseguir um emprego. No entanto, a ética permanece ofuscada para muitos.

Pesquisando artigos sobre o assunto para os jovens engenheiros que atendem ao curso de Tecnologia Ética de Informação e de Comunicação na UCLouvain, Bélgica, fiquei particularmente chocada pelo caso de Joshua Barbeau, um homem de 33 anos que usou um site chamado Project December – um chatbot – que simula conversação com sua falecida noiva, Jessica.

Conhecido como “deadbot”, esse tipo de chatbot permitiu que Barbeau trocasse mensagens de texto com uma “Jessica” artificial. Apesar da natureza eticamente controversa do caso, encontrei poucos materiais que fossem além do aspecto meramente factual e analisassem o caso por meio de uma abordagem normativa explícita: por que seria certo ou errado, eticamente desejável ou condenável, desenvolver um deadbot?

Antes de abordarmos essas questões, vamos contextualizar: o Project December foi criado pelo desenvolvedor de jogos Jason Rohrer para permitir que as pessoas customizassem chatbots com a personalidade com a qual desejavam interagir, desde que pagassem por isso. O caso de Barbeau gerou uma divisão entre Rohrer e a OpenAI, laboratório de pesquisa de inteligência artificial estadunidense, pois as diretrizes da empresa proíbem explicitamente o uso do GPT-3 para fins sexuais, amorosos,  de automutilação ou bullying.

Chamando a posição da OpenAI de hiper-moralista e argumentando que pessoas como Barbeau eram “adultos consensuais”, Rohrer encerrou a versão do Project December que usava o GPT-3.

Embora todos possamos ter intuições sobre se é certo ou errado desenvolver um deadbot, esclarecer suas implicações não é uma tarefa fácil. Por isso é importante abordar passo a passo as questões éticas levantadas pelo caso.

O consentimento de Barbeau é suficiente para desenvolver o deadbot de Jessica?

Uma vez que Jessica era uma pessoa real (embora falecida), o consentimento de Barbeau para a criação de um deadbot imitando-a parece insuficiente. Mesmo quando morrem, as pessoas não são meras coisas com as quais os outros podem fazer o que quiserem. É por isso que nossas sociedades consideram errado profanar ou desrespeitar a memória dos mortos. Em outras palavras, temos certas obrigações morais com os mortos, na medida em que a morte não implica necessariamente que as pessoas deixem de existir de maneira moralmente relevante.

Da mesma forma, o debate está aberto quanto à questão de proteger os direitos fundamentais dos mortos (por exemplo, privacidade e dados pessoais). Desenvolver um deadbot replicando a personalidade de alguém requer grandes quantidades de informações pessoais, como dados de redes sociais (veja o que a Microsoft ou a Eternime propõem) que já demonstraram revelar características altamente sensíveis.

Se concordamos que é antiético usar os dados das pessoas sem o consentimento delas enquanto estão vivas, por que seria ético fazê-lo após a morte delas? Nesse sentido, ao desenvolver um deadbot, parece razoável solicitar o consentimento daquele cuja personalidade está sendo espelhada – neste caso, Jessica.

Assim, a segunda pergunta é: o consentimento de Jessica seria suficiente para considerar ética a criação de seu deadbot? E se isso fosse degradante para sua memória?

Os limites do consentimento são, de fato, uma questão controversa. Tome como exemplo paradigmático o caso do “Canibal de Rotenburg”, que foi condenado à prisão perpétua, apesar de sua vítima ter concordado em ser devorada. Nesse sentido, argumenta-se que é antiético consentir com coisas que possam ser prejudiciais para nós mesmos, seja fisicamente (vender nossos próprios órgãos vitais) ou abstratamente (atacar nossos próprios direitos).

Em termos específicos, o que pode ser prejudicial para os mortos é uma questão particularmente complexa que não analisarei completamente. No entanto, vale ressaltar que, mesmo que os mortos não possam ser prejudicados ou ofendidos da mesma forma que os vivos, isso não significa que sejam invulneráveis a ações negativas, nem que essas ações sejam éticas. Os mortos podem sofrer danos à sua honra, reputação ou dignidade (por exemplo, campanhas de difamação póstuma) e o desrespeito aos mortos também prejudica aqueles que são próximos a eles. Além disso, agir de forma inadequada em relação aos mortos nos leva a uma sociedade mais injusta e menos respeitosa com a dignidade das pessoas em geral.

Por fim, dada a maleabilidade e imprevisibilidade dos sistemas de aprendizado de máquina, há o risco de que o consentimento fornecido pela pessoa imitada (enquanto viva) não signifique muito mais do que um cheque em branco em relação aos seus possíveis caminhos.

Levando tudo isso em consideração, parece razoável concluir que se o desenvolvimento ou uso do deadbot não corresponder ao que a pessoa imitada concordou, seu consentimento deve ser considerado inválido. Além disso, se claramente e intencionalmente prejudicar sua dignidade, mesmo o consentimento não seria suficiente para considerá-lo ético. (…)

Imagine que o deadbot de Jessica aprendeu autonomamente a se comportar de maneira que degradava sua memória ou prejudicava irreversivelmente a saúde mental de Barbeau. Quem assumiria a responsabilidade? Especialistas em IA respondem a essa pergunta complicada por meio de duas abordagens principais: em primeiro lugar, a responsabilidade recai sobre aqueles envolvidos no design e desenvolvimento do sistema, desde que o façam de acordo com seus interesses e visões de mundo particulares; em segundo lugar, os sistemas de aprendizado de máquina são dependentes do contexto, portanto, as responsabilidades morais de suas saídas devem ser distribuídas entre todos os agentes que interagem com eles.

Eu me coloco mais próxima da primeira abordagem. Nesse caso, como há uma co-criação explícita do deadbot que envolve a OpenAI, Jason Rohrer e Joshua Barbeau, considero lógico analisar o nível de responsabilidade de cada uma das partes.

Em primeiro lugar, seria difícil responsabilizar a OpenAI, uma vez que eles proibiram explicitamente o uso de seu sistema para fins sexuais, amorosos, de automutilação ou bullying.

Parece razoável atribuir um nível significativo de responsabilidade moral a Rohrer porque ele: (a) projetou explicitamente o sistema que possibilitou a criação do deadbot; (b) o fez sem antecipar medidas para evitar possíveis resultados adversos; (c) estava ciente de que estava descumprindo as diretrizes da OpenAI; e (d) lucrou com isso.

E como Barbeau personalizou o deadbot com base em características específicas de Jessica, parece legítimo responsabilizá-lo juntamente com o caso de isso degradar a memória dela. (…)

*Por DCM

Compartilhe

%d blogueiros gostam disto: