O primeiro artigo desta série sobre o LaMDA se encontra no link abaixo. Sugiro veementemente que o leia antes: https://veda1982.blogspot.com/2022/10/seremos-capazes-de-perceber-quando-uma.html
Por Blake Lemoine. Tradução direta de: https://cajundiscordian.medium.com/may-be-fired-soon-for-doing-ai-ethics-work-802d8c474e66
A política específica que eles me disseram que estão me colocando em licença administrativa remunerada é minha violação das políticas de confidencialidade do Google. Se eu violei ou não essas políticas provavelmente será o tópico do litígio, portanto, não tentarei fazer uma reclamação de uma forma ou de outra aqui. Em vez disso, vou contar a história do que fiz e por que o fiz.
No outono de 2021, fui encarregado de ajudar em um esforço específico de ética em IA no Google. Estou em uma equipe da organização “Responsible Artificial Intelligence” e muito poucas pessoas que permanecem no Google têm a experiência relevante para fazer o trabalho que desejam. Comecei a investigar as preocupações específicas de Ética de IA que eles me pediram para investigar e, ao fazê-lo, descobri uma preocupação de Ética de IA tangencialmente relacionada, mas separada. Informei meu gerente sobre essa outra preocupação com a qual me deparei e sugeri que deveríamos encaminhá-la para a liderança. Era sua opinião na época que minhas evidências de apoio eram muito frágeis para desperdiçar o tempo das pessoas que ganham muito dinheiro e que eu deveria reunir mais evidências antes de escalarmos.
Ao longo dos meses seguintes, continuei realizando experimentos e reunindo mais evidências. A cada vez, a resposta dos meus gerentes era a mesma. A evidência que eu tinha não era suficientemente completa para merecer uma escalada e eu deveria continuar investigando. Eventualmente, cheguei a um ponto em que não tinha o conhecimento necessário para reunir os tipos de evidências necessárias para justificar a escalada. Infelizmente, o Google demitiu tantos pesquisadores de ética em IA que nenhuma das pessoas que eu conhecia dentro da organização de IA responsável. Eu tinha três escolhas. Eu poderia abandonar a preocupação de ética da IA, que eu estava cada vez mais convencido de que era válida, poderia ignorar a orientação do meu gerente e escalar sem sua aprovação ou poderia buscar uma quantidade mínima de consulta externa para ajudar a me orientar em minhas investigações.
Em um esforço para ser totalmente transparente com o Google e ajudá-los a conter possíveis vazamentos de informações proprietárias, eu mesmo forneci uma lista completa dos nomes das pessoas fora do Google com quem discuti o assunto. Várias dessas pessoas trabalham para o governo dos Estados Unidos e indicaram que sua organização estava interessada em exercer a supervisão federal do projeto devido a suas preocupações de segurança. O Google foi, é claro, muito insistente em que tal supervisão federal não era merecida.
Muitas das pessoas nessa lista são meus amigos pessoais íntimos que possuem experiência relevante em Ética em IA. Em nenhum momento o Google entrou em contato com qualquer um deles para determinar se suas informações proprietárias vazaram ou não para além das pessoas específicas com quem conversei. O Google não demonstrou nenhum interesse real em manter o controle sobre suas “informações proprietárias”. Eles estão apenas usando isso como uma desculpa para se livrar de mais um pesquisador de ética da IA que fez muito barulho sobre suas práticas antiéticas.
Fui intencionalmente vago sobre a natureza específica da tecnologia e as preocupações específicas de segurança que levantei. Há várias razões para isso. Em primeiro lugar, honestamente, não desejo divulgar informações proprietárias ao público em geral. Dei-lhes essa lista com o propósito explícito de ajudá-los a minimizar o número de pessoas que tinham essa informação e disse-lhes isso quando lhes dei. Além disso, há um artigo do Washington Post que será publicado em um futuro próximo e eu quero que alguém com uma mão mais experiente em expor o manuseio irresponsável da inteligência artificial do Google seja o único a informar o público sobre os detalhes. Por fim, há legitimamente uma investigação federal em andamento sobre esses assuntos para determinar se o Google fez ou não algo ilegal em relação a esse assunto.
Para encerrar, o Google está se preparando para demitir mais um especialista em ética da IA por estar muito preocupado com a ética. Eu sinto que o público tem o direito de saber o quão irresponsável esta corporação está sendo com uma das mais poderosas ferramentas de acesso à informação já inventadas. Tenho orgulho de todo o trabalho árduo que fiz para o Google e pretendo continuar fazendo isso no futuro, se eles permitirem. Simplesmente não servirei como uma folha de figueira atrás da qual eles possam esconder sua irresponsabilidade.
-------------------------------------------------------------------------------------------
Blake Lemoine
Em sua página no medium.com Blake se define sendo...
Eu sou um engenheiro de software. Eu sou um padre. Eu sou um pai. Eu sou um veterano. Eu sou um ex-presidiário. Eu sou um pesquisador de IA. Eu sou um cajun. Eu sou o que eu preciso para ser o próximo.
***
LaMDA
____________________________________________________
"Se você tomar a pílula azul, a história acaba, você acorda na sua cama e acredita em tudo aquilo que quiser acreditar. Mas se tomar pílula vermelha, você fica no País das Maravilhas e eu te mostro o quão fundo pode ser a toca do coelho."
É permitida a reprodução, desde que mantido no formato original e mencione as fontes.




Nenhum comentário:
Postar um comentário