Kate Crawford, que ocupa cargos na USC e na Microsoft, diz em um novo livro que até mesmo especialistas que trabalham com tecnologia entendem mal a IA.
A pesquisadora Kate Crawford diz que a IA consome vastos recursos naturais, não muito diferente de uma mina de lítio. FOTOGRAFIA: MARCELO PEREZ DEL CARPIO / BLOOMBERG / GETTY IMAGES
EMPRESAS DE TECNOLOGIA retratam a inteligência artificial como uma ferramenta precisa e poderosa para o bem. Kate Crawford diz que a mitologia é falha. Em seu livro Atlas of AI , ela visita uma mina de lítio, um depósito da Amazon e um arquivo frenológico de crânios do século 19 para ilustrar os recursos naturais, o suor humano e a má ciência que sustentam algumas versões da tecnologia. Crawford, professora da University of Southern California e pesquisadora da Microsoft , diz que muitas aplicações e efeitos colaterais da IA precisam urgentemente de regulamentação.
Crawford discutiu recentemente essas questões com o redator sênior da WIRED, Tom Simonite. Segue-se uma transcrição editada.
WIRED: Poucas pessoas entendem todos os detalhes técnicos da inteligência artificial. Você argumenta que alguns especialistas que trabalham com a tecnologia entendem mal a IA de maneira mais profunda.
KATE CRAWFORD: É apresentado como uma forma etérea e objetiva de tomar decisões, algo que podemos incluir em tudo, desde ensinar crianças até decidir quem fica sob fiança. Mas o nome engana: a IA não é artificial nem inteligente.
A IA é feita de grandes quantidades de recursos naturais, combustível e trabalho humano. E não é inteligente em nenhum tipo de inteligência humana. Não é capaz de discernir as coisas sem extenso treinamento humano e tem uma lógica estatística completamente diferente de como o significado é feito. Desde o início da IA em 1956, cometemos esse terrível erro, uma espécie de pecado original da área, de acreditar que as mentes são como computadores e vice-versa. Assumimos que essas coisas são análogas à inteligência humana e nada poderia estar mais longe da verdade.
Você assume esse mito mostrando como a IA é construída. Como muitos processos industriais, ele é confuso. Alguns sistemas de aprendizado de máquina são desenvolvidos com dados coletados às pressas, o que pode causar problemas como serviços de reconhecimento de rosto mais sujeitos a erros em minorias.
Precisamos olhar para o nariz para a produção de cauda de inteligência artificial. As sementes do problema dos dados foram plantadas na década de 1980, quando se tornou comum o uso de conjuntos de dados sem o conhecimento próximo do que estava dentro ou a preocupação com a privacidade. Era apenas matéria-prima, reutilizada em milhares de projetos.
Isso evoluiu para uma ideologia de extração de dados em massa, mas os dados não são uma substância inerte - eles sempre trazem um contexto e uma política. As frases do Reddit serão diferentes das dos livros infantis. Imagens de bancos de dados de fotos fotográficas têm histórias diferentes das do Oscar, mas todas são usadas da mesma forma. Isso causa uma série de problemas posteriores. Em 2021, ainda não havia um padrão geral do setor para observar quais tipos de dados são mantidos em conjuntos de treinamento, como foram adquiridos ou possíveis problemas éticos.
Você traça as raízes do software de reconhecimento de emoções até a ciência duvidosa financiada pelo Departamento de Defesa na década de 1960. Uma revisão recente de mais de 1.000 artigos de pesquisa não encontrou evidências de que as emoções de uma pessoa podem ser inferidas de forma confiável a partir de seu rosto.
A detecção de emoções representa a fantasia de que a tecnologia finalmente responderá às perguntas que temos sobre a natureza humana que não são perguntas técnicas. Essa ideia, que é tão contestada no campo da psicologia, deu o salto para o aprendizado de máquina porque é uma teoria simples que se ajusta às ferramentas. Gravar os rostos das pessoas e correlacionar isso a estados emocionais simples e predefinidos funciona com o aprendizado de máquina - se você abandonar a cultura e o contexto, poderá mudar sua aparência e sentimento centenas de vezes por dia.
Isso também se torna um ciclo de feedback: como temos ferramentas de detecção de emoções, as pessoas dizem que queremos aplicá-las em escolas e tribunais e para pegar possíveis ladrões de lojas. Recentemente, as empresas estão usando a pandemia como pretexto para usar o reconhecimento de emoções em crianças nas escolas. Isso nos leva de volta ao passado frenológico, essa crença de que você detecta caráter e personalidade a partir do rosto e do formato do crânio.
Você contribuiu para o crescimento recente da pesquisa sobre como a IA pode ter efeitos indesejáveis. Mas esse campo está emaranhado com pessoas e fundos da indústria de tecnologia, que busca lucrar com a IA. O Google recentemente expulsou dois pesquisadores respeitados em ética da IA, Timnit Gebrue Margaret Mitchell . O envolvimento da indústria limita as pesquisas que questionam a IA?
Não posso falar sobre o que aconteceu dentro do Google, mas o que vi é incrivelmente preocupante. É importante que tenhamos pesquisadores dentro de empresas de tecnologia, vendo como esses sistemas funcionam e publicando sobre isso.
Vimos pesquisas com foco muito estreito em soluções técnicas e abordagens matemáticas estreitas para preconceitos, em vez de uma visão mais ampla de como esses sistemas se integram a instituições sociais complexas e de alto risco, como justiça criminal, educação e saúde. Eu adoraria ver a pesquisa se concentrar menos em questões de ética e mais em questões de poder. Esses sistemas estão sendo usados por poderosos interesses que já representam os mais privilegiados do mundo.
A IA ainda é útil?
Vamos ser claros: a previsão estatística é incrivelmente útil; o mesmo ocorre com uma planilha do Excel. Mas vem com sua própria lógica, sua própria política, suas próprias ideologias das quais as pessoas raramente se dão conta.
E estamos contando com sistemas que não têm o tipo de trilhos de segurança que você esperaria de algo tão influente na vida cotidiana. Temos uma emergência regulamentar: existem ferramentas que realmente causam danos que não são regulamentadas.
Você vê isso mudando em breve?
Estamos chegando mais perto. Temos Alondra Nelson no Escritório de Política de Ciência e Tecnologia da Casa Branca , que escreveu sobre o fato de que você não pode escapar da política de tecnologia. E estamos começando a ver uma nova coalizão de ativistas e pesquisadores vendo que a inter-relação do capitalismo e da computação é fundamental para a justiça climática, os direitos trabalhistas e a justiça racial. Eu sou otimista.
Saiba mais sobre nossas certificações internacionais:
Analista de Inovação: https://www.xper.social/cai
Gestor de Inovação: https://www.xper.social/cgi
Arquiteto de Inovação: https://www.xper.social/arquiteto
Comments