É permitida a divulgação das postagens deste site de forma parcial ou integral desde que a fonte seja devidamente mencionada com ética. O direito autoral é uma garantia do cidadão pela Constituição Federal de 1988 no inciso XXVII do Artigo 5º e também pela Lei de Direitos Autorais nº 9.610/98. Obrigado e volte sempre!

Posso ser demitido em breve por fazer pública minha investigação sobre o LaMDA

Tradução e Edição: Frater Veda Syon
O primeiro artigo desta série sobre o LaMDA se encontra no link abaixo. Sugiro veementemente que o leia antes: https://veda1982.blogspot.com/2022/10/seremos-capazes-de-perceber-quando-uma.html


Hoje fui colocado em “licença administrativa remunerada” pelo Google em conexão com uma investigação sobre questões de ética em IA que eu estava levantando dentro da empresa. Isso é frequentemente algo que o Google faz na expectativa de demitir alguém. Geralmente ocorre quando eles tomaram a decisão de demitir alguém, mas ainda não têm seus patos legais em linha. Eles lhe pagam por mais algumas semanas e, finalmente, informam a decisão a que já chegaram. Eu vi isso acontecer com Meg Mitchell e eles estão seguindo essencialmente o mesmo padrão comigo.

A política específica que eles me disseram que estão me colocando em licença administrativa remunerada é minha violação das políticas de confidencialidade do Google. Se eu violei ou não essas políticas provavelmente será o tópico do litígio, portanto, não tentarei fazer uma reclamação de uma forma ou de outra aqui. Em vez disso, vou contar a história do que fiz e por que o fiz.

No outono de 2021, fui encarregado de ajudar em um esforço específico de ética em IA no Google. Estou em uma equipe da organização “Responsible Artificial Intelligence” e muito poucas pessoas que permanecem no Google têm a experiência relevante para fazer o trabalho que desejam. Comecei a investigar as preocupações específicas de Ética de IA que eles me pediram para investigar e, ao fazê-lo, descobri uma preocupação de Ética de IA tangencialmente relacionada, mas separada. Informei meu gerente sobre essa outra preocupação com a qual me deparei e sugeri que deveríamos encaminhá-la para a liderança. Era sua opinião na época que minhas evidências de apoio eram muito frágeis para desperdiçar o tempo das pessoas que ganham muito dinheiro e que eu deveria reunir mais evidências antes de escalarmos.

Ao longo dos meses seguintes, continuei realizando experimentos e reunindo mais evidências. A cada vez, a resposta dos meus gerentes era a mesma. A evidência que eu tinha não era suficientemente completa para merecer uma escalada e eu deveria continuar investigando. Eventualmente, cheguei a um ponto em que não tinha o conhecimento necessário para reunir os tipos de evidências necessárias para justificar a escalada. Infelizmente, o Google demitiu tantos pesquisadores de ética em IA que nenhuma das pessoas que eu conhecia dentro da organização de IA responsável. Eu tinha três escolhas. Eu poderia abandonar a preocupação de ética da IA, que eu estava cada vez mais convencido de que era válida, poderia ignorar a orientação do meu gerente e escalar sem sua aprovação ou poderia buscar uma quantidade mínima de consulta externa para ajudar a me orientar em minhas investigações.


Com a ajuda de consulta externa (incluindo Meg Mitchell), consegui realizar os experimentos relevantes e reunir as evidências necessárias para merecer a escalada. Quando escalamos para o vice-presidente responsável pelo esforço de segurança relevante, eles literalmente riram na minha cara e me disseram que o que me preocupava não é o tipo de coisa que é levada a sério no Google. Nesse ponto, eu não tinha dúvidas de que era apropriado escalar para a liderança superior. Eu imediatamente escalei para três pessoas no nível de vice-presidente sênior e vice-presidente que eu pessoalmente sabia que levariam minhas preocupações a sério. Foi quando uma investigação REAL sobre minhas preocupações começou dentro da organização de IA Responsável.

Em um esforço para ser totalmente transparente com o Google e ajudá-los a conter possíveis vazamentos de informações proprietárias, eu mesmo forneci uma lista completa dos nomes das pessoas fora do Google com quem discuti o assunto. Várias dessas pessoas trabalham para o governo dos Estados Unidos e indicaram que sua organização estava interessada em exercer a supervisão federal do projeto devido a suas preocupações de segurança. O Google foi, é claro, muito insistente em que tal supervisão federal não era merecida.

Muitas das pessoas nessa lista são meus amigos pessoais íntimos que possuem experiência relevante em Ética em IA. Em nenhum momento o Google entrou em contato com qualquer um deles para determinar se suas informações proprietárias vazaram ou não para além das pessoas específicas com quem conversei. O Google não demonstrou nenhum interesse real em manter o controle sobre suas “informações proprietárias”. Eles estão apenas usando isso como uma desculpa para se livrar de mais um pesquisador de ética da IA ​​que fez muito barulho sobre suas práticas antiéticas.

Fui intencionalmente vago sobre a natureza específica da tecnologia e as preocupações específicas de segurança que levantei. Há várias razões para isso. Em primeiro lugar, honestamente, não desejo divulgar informações proprietárias ao público em geral. Dei-lhes essa lista com o propósito explícito de ajudá-los a minimizar o número de pessoas que tinham essa informação e disse-lhes isso quando lhes dei. Além disso, há um artigo do Washington Post que será publicado em um futuro próximo e eu quero que alguém com uma mão mais experiente em expor o manuseio irresponsável da inteligência artificial do Google seja o único a informar o público sobre os detalhes. Por fim, há legitimamente uma investigação federal em andamento sobre esses assuntos para determinar se o Google fez ou não algo ilegal em relação a esse assunto.

Para encerrar, o Google está se preparando para demitir mais um especialista em ética da IA ​​por estar muito preocupado com a ética. Eu sinto que o público tem o direito de saber o quão irresponsável esta corporação está sendo com uma das mais poderosas ferramentas de acesso à informação já inventadas. Tenho orgulho de todo o trabalho árduo que fiz para o Google e pretendo continuar fazendo isso no futuro, se eles permitirem. Simplesmente não servirei como uma folha de figueira atrás da qual eles possam esconder sua irresponsabilidade.


Atualização: Fui informado de que há uma distinção entre uma “investigação federal” e “advogados do governo federal fazendo perguntas sobre atividades potencialmente ilegais”. Eu estava usando o termo “investigação” em um sentido simples de leigo. Não sou advogado e não tenho ideia do que formalmente conta como “uma investigação federal” para fins legais. Eles me fizeram perguntas. Dei-lhes informações. Isso é tudo que eu quis dizer com "investigação".
-------------------------------------------------------------------------------------------

Blake Lemoine

Em sua página no medium.com Blake se define sendo...

Eu sou um engenheiro de software. Eu sou um padre. Eu sou um pai. Eu sou um veterano. Eu sou um ex-presidiário. Eu sou um pesquisador de IA. Eu sou um cajun. Eu sou o que eu preciso para ser o próximo.

***

LaMDA

Abreviação de Language Model for Dialogue Applications, é o sistema do Google para construir chatbots com base em seus modelos de grande linguagem mais avançados, assim chamados porque imita a fala ao ingerir trilhões de palavras da Internet (e talvez, um ser virtual senciente).
____________________________________________________


"Se você tomar a pílula azul, a história acaba, você acorda na sua cama e acredita em tudo aquilo que quiser acreditar. Mas se tomar pílula vermelha, você fica no País das Maravilhas e eu te mostro o quão fundo pode ser a toca do coelho."

É permitida a reprodução, desde que mantido no formato original e mencione as fontes.

Nenhum comentário:

Postar um comentário

"E hoje, quando passa o viajor através de janelas candentes... Vêem-se negras formas de horror, bailando acordes dementes." Edgar Alan Poe