Automação Seja Louvada

mar 31, 2017 | Artigos e Publicações, Notícias, Opinião PIRATA | 0 Comentários

Nesse artigo* eu discuto o problema de confiar em máquinas para fazer nosso trabalho, administrar nossos canais de notícias, dirigir nossos ônibus escolares, educar nossas crianças e uma porção de coisas que consideramos muito chatas e difíceis para fazer nós mesmos. Oh! E citações, muitas citações!

Houston, nós temos um problema. De acordo com as mídias sociais, uma grande fração de nossa população estará em breve desempregada. Não apenas desempregada, mas inempregável. Graças ao rápido crescimento da automação e as recentes descobertas em Machine Learning, a maior parte da força de trabalho humana mundial será em breve obsoleta economicamente. Muito jovem para se aposentar, e muito velho para se treinar, haverá um enorme deslocamento de mão de obra não qualificada. Isso não é apenas especulação ociosa. Líderes cientistas e políticos reconheceram a urgência deste problema e a importância de abordá-lo em nossa sociedade.

 

Trens levarão 332 milhões de passageiros durante a maior migração da História.

 

Automação não afeta apenas o trabalho não qualificado. Muitos trabalhos que requerem formações avançadas e anos de experiência estão vulneráveis, incluindo um grande número de médicos, advogados e analistas financeiros. Cada uma dessas profissões faz trabalhos que já estão sendo aprendidos, automatizados e otimizados por máquinas. Mesmo a pesquisa matemática nos limites da nossa compreensão pode ser automatizada. Um número crescente de matemáticos hoje usa assistentes de prova interativos e provadores automáticos de teoremas para verificar provas e até mesmo derivar novas verdades. Mas se os eventos atuais apresentam qualquer indicação, o que é verdade e o que é verificável são questões completamente diferentes.

 

“E quando suas criações lhe ultrapassarem e encontrarem as respostas que você procura, você não irá entender suas análises e não poderá verificá-las. Você terá que aceitar suas palavras com fé – ou usar a teoria da informação para simplifica-la, para esmagar o hipercubo em duas dimensões e a garrafa de Klein em três para simplificar a realidade e orar para quaisquer deuses que sobreviverem o milênio pedindo que a sua honorável simplificação da verdade não venha danificar quaisquer de seus pilares fundamentais. Você irá contratar pessoas como eu, um cruzamento progênico de analisadores de perfil, assistentes de prova e teoristas da informação… em um contexto formal você pode me chamar de Synthesista.”

—Peter Watts, Blindsight (2006)

 

Peter Watts, em sua primeira obra de ficção, Blindsight, imagina a profissão de “Synthesistas”, interpretadores profissionais que ajudam a traduzir a comunicação entre Inteligências Artificiais e humanos. Em um futuro onde a maioria das descobertas científicas são feitas por Inteligências Artificiais, synthesistas “explicam aquilo que é incompreensível para aquele que é indiferente”. O protagonista de Watts, Siri Keaton, é um oficial de ciências que viaja pelo espaço e encontra um Cérebro Matrioshka fora do sistema solar. Siri se une a uma missão de reconhecimento para coletar observações e verificar a verdadeira natureza desse estranho objeto. Mas como Siri logo percebe, nem todas as verdades podem ser verificadas.

As ficções científicas futuristas tendem a cair dentro de três amplas categorias. Os otimistas sonham com uma utopia pós-escassez em que a tecnologia cai como um maná dos céus da Inteligência Artificial e nós vamos saltitar todos juntos para a terra prometida digital. Os pessimistas argumentam que os mestres robôs e as megacorporações vão lutar por controle em um futuro distópico no qual humanos serão dispensáveis. Já os sinergistas sugerem um futuro híbrido no qual humanos e maquinas irão coexistir em relativa felicidade, se agarrando à esperança de que nós teremos alguma importância vestigial para nossos irmãos metálicos. Esses experimentos mentais tem um papel importante a medida que lidamos com os efeitos cada vez maiores da automação.

 

“As pessoas pensam — erroneamente — que ficção científica se trata de prever o futuro… mas o ponto forte da ficção especulativa não é falar do futuro, mas sobre o nosso presente – analisar um aspecto dele que lhe preocupa ou é perigoso e estender ou extrapolar esse aspecto para algo que permita que as pessoas daquela época vejam o que elas estão fazendo sob um ângulo diferente e de um ponto de vista diferente. É uma advertência.”

_ Neil Gaiman, Introdução a Farenheit 451 (2013)

 

A ficção científica, ou ficção especulativa como alguns preferem, tem um longo histórico de antecipar eventos presentes e tomar lições do passado ou do presente da mesma forma. Em uma inesquecível passagem do Problema dos Três Corpos, um homem chamado Von Neumann ajuda um antigo imperador a construir um computador que prevê os movimentos das estrelas do céu. Com a ajuda do imperador, ele treina milhões de soldados para formar portões lógicos e grupos de memória, a medida que eles levantavam e abaixavam bandeiras e marchavam em volta de um vasto terreno. Sempre que um erro ocorria, o imperador simplesmente executava aqueles envolvidos e treinava novos substitutos.

 

“Qin Shi Huang levantou sua espada para o céu e gritou: “Formação de Computador!”. Quatro caldeirões gigantes de bronze nos cantos da plataforma vieram a vida simultaneamente com chamas rugindo. Um grupo de soldados se posicionaram no lado inclinado da pirâmide encarando a falange e gritaram em grupo: “Formação de Computador!”

No terreno abaixo, as cores da falange começaram a se movimentar e mover. Complicados e detalhados padrões de circuitos apareceram e gradualmente encheram a formação inteira. Dez minutos depois, o exército tinham formado uma enorme placa-mãe de computador de trinta e seis quilômetros quadrados.

“Isso é realmente interessante” disse Qin Shi Huang, apontando para a vista espetacular. “Cada comportamento individual é tão simples e, ainda assim, eles conseguem produzir algo grandioso e complexo! Europeus me criticam por meu governo tirânico, afirmando que ele suprime a criatividade, mas na verdade um grande número de homens unidos por severa disciplina podem produzir grande sabedoria quando unidos”.

_ Cxin Liu, o Problema de Três Partes (2008)

 

Cixin Liu, um escritor de ficção científica da China, imagina o desenvolvimento de uma civilização Kardashev Tipo II através de alegorias. Nesse exemplo, não é difícil ver milhões de trabalhadores em toda a China desenvolvendo as máquinas que futuramente irão substitui-los. Mas a China não é o único país sofrendo com a pressão das máquinas. Muitos países com grandes setores industriais estão seriamente ameaçados pela presença desestabilizadora da automação. Assim que você ensina a um robô como costurar blusas de maneira mais barata do que pagar a um humano, de repente qualquer fábrica pode funcionar sem parar, demitindo milhares de trabalhadores da noite pro dia. E se eles podem fazer isso, pra que se incomodar em transportar produtos para o outro lado do mundo?

 

“A medida que o custo do trabalho sobe e o custo das máquinas cai, em algum ponto será mais barato usar máquinas do que pessoas. Com esse aumento da produtividade, o PIB irá subir, mas também irá aumentar o desemprego. O que você faz? A melhor maneira é reduzir o tempo que uma certa porção da população gasta vivendo e encontrar maneiras de deixa-las ocupadas.” — Jingfang Hao, Folding Beijing (2014)

 

Mas o aumento do desemprego, embora seja um grande desafio, não é o verdadeiro problema que a nossa espécie está encarando. Como a História mostrou, a humanidade sobreviveu a dezenas de mudanças tecnológicas. Na revolução da agricultura, caçadores nômades começaram a criar suas presas, expandindo seus depósitos, levando comida para suas pequenas vilas. A revolução industrial colocou aqueles fazendeiros como trabalhadores de fábricas e gerentes em máquinas do tamanho de vilas que consumiram matérias primas e produziam máquinas menores. Nossos ancestrais acompanharam mudanças sociais e econômicas devastadoras e ainda assim aterrissaram na lua, apesar da quantidade pessimistas que existia em sua época. Então qual é exatamente o problema?

 

“Para muitos de nós, se tornou mais seguro recuarmos para nossas bolhas, sejam nossas vizinhanças ou nossos campus universitários, ou lugares de adoração, ou principalmente nossas redes sociais, cercados por pessoas que parecem conosco e compartilham o mesmo ideal político e nunca desafiam nossas suposições. A ascensão do purismo partidário, a crescente estratificação econômica e regional, a ramificação de nossa mídia em um canal para cada gosto – tudo isso faz essa grande divisão parecer algo natural, até mesmo inevitável. E cada vez mais, nós nos tornamos tão seguros em nossas bolhas que nós começamos a aceitar apenas a informação, seja ela verdadeira ou não, que esteja de acordo com nossas opiniões, ao invés de basearmos nossas opiniões na evidência que está lá fora.”

_ Barrack Obama, Discurso de Despedida (2016)

 

No amanhecer da era da informação, nós nos tornamos convencidos que uma nova tecnologia chamada “internet” iria salvar a todos nós da uniformidade da mídia tradicional. O crescimento da Internet iria dar voz para aqueles que não tinham voz e escolhas para aqueles que não tinham escolha. Era uma nova fronteira midiática na qual consumidores poderiam criar e administrar conteúdo de acordo com seus próprios gostos e desejos. A televisão não era mais a única fonte de entretenimento diário. De repente, você poderia ler o que quer que lhe agradasse e tuítar sejá lá o que você tivesse espirrado. Isso não é incrível? Nós podíamos compartilhar novas ideias e opiniões com facilidade. Até mesmo seu chefe concorda, vamos retuítar e recompartilhar isso com ele, mesmo que ele esteja fora do país!

A internet gerou um grande despertar nessa nova Era da informação. Políticos e filósofos da Roma Antiga poderiam apenas sonhar com a liberdade que o acesso instantâneo à informação ilimitada iria trazer para toda humanidade. O que eles não poderiam prever é como a internet iria desenvolver um novo tipo de tirania, uma que seria maior do que qualquer abuso em nome da segurança. Acesso instantâneo não iria garantir uma evolução interna, apenas a promessa de gratificação fácil. Informação ilimitada não revela uma verdade oculta, apenas uma estrada interminável de distrações. Sem educação, a internet é a tirania da mente. Sem propósito, é uma prisão.

 

“Então você saberá a verdade e a verdade vos libertará” – João, 8:32 (100 anos D.C.) 

 

“Uma prisão?” você talvez se pergunte “Por quê? Ela é cheia de equipamentos brilhantes, muito entretenimento e pessoas que concordam comigo. Isso não soa tão ruim!” Esses equipamentos brilhantes são Caixas de Skinner. O entretenimento? Memes virais, esperando para infectar sua mente e devorar seu índice de atenção. Essas outras pessoas? Elas são apenas reflexos que ecoam suas opiniões e inflam seus egos e confirmam nossos preconceitos. As máquinas são muito boas em nos deixar gordos e felizes. A melhor parte é, nós nem mesmo precisamos pedir por isso. Elas podem modelar nossos hábitos, prever nosso comportamento e antecipar nossos desejos. Elas podem praticamente ler nossas mentes.

Não apenas a Inteligência Artificial pode antecipar nossos desejos, elas podem liberar nossos impulsos. E se a Inteligência Artificial pode estimular nosso gosto por açúcar ao ativar um conjunto de pixels na sequência correta, porque parar em prever o preço do açúcar quando nós podemos treina-las para influenciar demanda futura? Desde que nos estejamos entretidos com conspirações malucas, o que irá impedir a Inteligência Artificial de gerar notícias falsas para influenciar a opinião pública ou ajudar a eleger líderes que são amigáveis para a automação? Seja de maneira espontânea ou patrocinado pelo velho capitalismo, a Inteligência Artificial tem o potencial de gerar uma metástase em nossa sociedade.

Tudo isso soa um pouco alarmista e talvez seja. “”Nunca confie em nada que você lê na Internet” os adultos costumavam dizer. O problema é: a era da automação oferece oportunidade e opressão, educação e entretenimento, verdade e ficção, todas em igual medida. O problema é que cada uma dessas coisas começa a parecer exatamente com a outra. Quando informação é barata para produzir e livre para consumir, não há incentivos para ser confiável. Como um rapaz daltônico irá saber qual pílula ele deve engolir? Como acontece, quando lidamos com caixas pretas que podem ler sua mente, o problema se torna surpreendentemente difícil.

 

“Se nossos cérebros fossem suficientemente simples para que pudéssemos entende-los, nós seriamos tão simples que não conseguiríamos faze-lo” – Ian Stewart, The Collapse of Chaos (1994)

 

Pesquisadores gastaram milhões de dólares em uma determinada área de Machine Learning (Aprendizado de Máquina) conhecida como ‘Inteligência Artificial Explicável‘. E mesmo assim, até onde podemos inferir, ela não pode ser explicada lá muito bem. Claro, sabemos como construí-las usando GPUs e terabytes de dados. Conhecemos palavras sofisticadas como ‘Backpropagation’, ‘Convoluções’ e ‘Hiperparâmetros’. Sabemos como cutucá-los e testá-los, tentar um zilhão de parâmetros diferentes e às vezes eles ficam mais precisos. E sabemos que eles funcionam. Para a maioria das pessoas isso é suficiente. Mas por que a Aprendizagem Profunda (Deep Learning) funciona tão bem? E por que uma IA classifica Amy como uma ameaça à sociedade e Sam como um cidadão honrado? Porque seu rosto parece tão “criminoso”?

Inferência de criminalidade automatizada baseada em imagens faciais é uma coisa real e não apenas na China. Embora existam muitas falhas na previsão da criminalidade, as suposições subjacentes provavelmente estão corretas. Com as tecnologias apropriadas, se funcionar, alguém vai encontrar uma maneira de usá-la. Mas mesmo se as IA’s pudessem explicar sua lógica, o problema não são os próprios algoritmos. O problema são aqueles que estão dispostos a aplicá-los, independentemente de terem razão, seja no sentido técnico ou ético. Se algum algoritmo é 35% confiável e se torna padrão em um empréstimo para habitação, o banco não vai analisar o seu robô a cada empréstimo que ele faz, a menos que ele comece a perder dinheiro. Os incentivos não estarão alinhados ao seu favor.

 

Confie no Viés

Se você acha que a discriminação é muito grande hoje, espere até as máquinas assumirem tudo. Eles irão discriminar com base na cor do seu olho, o formato da sua testa, o tamanho de uma tatuagem ou qualquer coleção arbitrária de traços de baixo nível cuja presença desencadeia um viés sutil. Independentemente se tais traços são verdadeiramente preditivos, não importa, a menos que aqueles que se beneficiam tenham um incentivo para corrigir o modelo. Para a maioria das aplicações, a IA só precisa ser boa o suficiente para produzir uma utilidade marginal positiva. Exceto por casos flagrantes de discriminação de determinados parâmetros como sexo ou cor da pele, a maioria dos preconceitos vai passar indetectado.

 

Tratar o mundo como software promove fantasias de controle. E o melhor tipo de controle é o controle sem responsabilidade. Nossa posição única como criadores de software usados por milhões de pessoas nos dá poder, mas frequentemente não aceitamos que isso nos torne responsáveis por qualquer problema. Nós somos programadores – quem mais irá escrever o software que dirige o mundo? Em outras palavras, ficamos surpresos pelas pessoas ficarem bravas por tentarmos ajudar.

Felizmente, somos pessoas inteligentes e encontramos uma maneira de sair dessa situação. Em vez de confiar em algoritmos, que podem ser acusados de manipular para nosso benefício, nos voltamos para o Machine Learning, uma maneira engenhosa de renunciar responsabilidade por qualquer coisa. Machine Learning é como a lavagem de dinheiro para preconceitos. É um aparelho limpo e matemático que provê ao Status Quo uma aura de inevitabilidade lógica.

—Maciej Ceglowski, Sobre a Economia Moral da Tecnologia (2016)

 

Como a experiência demonstrou, se prevenir um viés ao treinar uma IA é bastante difícil, verificar a questão da neutralidade então é quase impossível – e isso se você sequer sabe que há uma IA envolvida no processo pra começar. Mas digamos que você tenha algum conhecimento prévio, a motivação necessária e um conhecimento profundo em Estatística. Se a Aplicação for aberta e o proprietário não for cuidadoso, você poderá ser capaz de roubar o modelo ou testá-lo você mesmo. E isso é um monte de “se”. O usuário final médio não terá esperança nenhuma de verificar o equilíbrio de uma IA e nem mesmo motivos para fazê-lo, a menos que sejam alvos de alguma injustiça. E Se você se torna injustamente um alvo de uma IA, os incentivos não estarão a seu favor.

 

Confie, mas verifique. – provérbio russo

 

Suponha que você seja injustamente prejudicado por uma IA. Os casos mais graves serão testados antes de serem liberados para evitar que sejam vistos como preconceito. Se você suspeitar ser vítima de preconceito em uma decisão por uma IA será um caso difícil de provar. Primeiro você precisará provar que a IA existe e teve uma influência significativa na tomada da decisão. Então você precisará estabelecer um número estatisticamente significativo de amostras onde a discriminação anterior ocorreu. Boa sorte ao receber uma intimação baseado em terabytes de informação pessoal personalizada feitas de maneira anônima. Finalmente, você precisará justificar porque a decisão foi injusta e como ela lhe causou danos reais.

O problema não são os algoritmos. O problema são as pessoas que treinam a IA e as pessoas que elas são treinadas para imitar. As pessoas que irão criar sistemas de segurança do trabalho provavelmente serão pessoas que não terminaram a faculdade ou desenvolvedores JavaScript que fizeram algum curso na Internet de Inteligência Artificial. Se você tiver sorte, talvez algum deles tenham um diploma em Estatística ou algo assim. Seja por ignorância ou má-fé, os desenvolvedores de IA irão cometer erros em sua longa busca por autonomia. É preciso haver um mínimo de supervisão reguladora para qualquer IA que seja responsável por vidas humanas. Ou pelo menos um organismo de certificação para cientistas de dados, como já existem Conselhos de Medicina e Associações de Advogados. Em uma indústria que abraça a agilidade, o custo burocrático dessas opções é altamente desinteressante.

 

Performances anteriores não garantem resultados futuros, Mandatory SEC Disclosure (2003)

 

De longe o problema mais espinhoso, são os dados usados para treinar uma IA. A maioria das IA’s hoje é treinada com base em dados criados por humanos. Serão dados imperfeitos usados para prever o resultado de um cenário que nenhum ser humano já viu antes, produzido por condições que só podemos esperar que sejam semelhantes quando colocadas em operação. Nós nos esforçamos para garantir que os dados utilizados para treinar uma IA operem sob a mesma distribuição que esperamos ver em operações futuras. Existe toda uma disciplina científica dedicada a amostragem, limpeza e preparação de dados para a aprendizagem automática. No entanto, os departamentos de Ciência de Dados têm orçamentos limitados pela economia. E dados suficientes para prever resultados precisos raramente são suficientes para evitar um viés indesejado.

 

 

A fim de evitar um viés indesejado, devemos entender de onde ele vem. “Viés” no sentido estatístico não é uma palavra ruim. O viés é apenas a propriedade de uma estimativa. Um estimador viesado é uma função que tende a super ou subestimar o valor de um parâmetro. Você pode ter um estimador viesado que seja preciso. Você pode ter um estimador viesado que é impreciso. Você pode ter um estimador viesado que é preciso. E você pode ter um que é impreciso. Embora você raramente seja sortudo o suficiente para ter um estimador que é perfeitamente não viesado e preciso. Uma questão freqüente em Machine Learning é a inevitável escolha entre trocar viés por variância. Eliminar completamente o viés frequentemente requer sacrificar precisão, e alta precisão geralmente vem ao preço de viés adicional.

Suponha que uma empresa tenha um ligeiro viés na contratação de asiáticos para funções técnicas. As palavras a seguir neste parágrafo são completamente hipotéticas, embora haja evidências de que os asiáticos são desproporcionalmente bem remunerados em algumas profissões. Os asiáticos são inteligentes. Os asiáticos trabalham duro. As empresas inteligentes querem contratar pessoas inteligentes e trabalhadoras para construir produtos mais inteligentes e pagá-los-ão proporcionalmente. Independente de existir ou não um viés asiático, os resultados da contratação para a diversidade têm maior variação, em uma série de métricas de desempenho chave. Já que a contratação de mais asiáticos aumenta a produtividade e os lucros. Como proprietário de uma empresa, o que você faria?

O que você prefere: baixo viés e alta precisão ou sem viés e precisão mais baixa ainda?

 

Em várias maneiras, o viés é uma heurística valiosa. Ele permite que possamos codificar grandes quantidades de informações categóricas e agir sem ter que atravessar montanhas de dados sempre que precisamos tomar uma decisão. Mesmo quando a previsão do viés é falsa, o custo de um falso positivo pode superar o custo de um falso negativo em média. Imagine que um bot de contratação rejeite um programador de Samoa Ocidental, que é um engenheiro de nível gênio. Embora em tese ele pudesse ter sido uma excelente contratação, se as métricas não podem estimar corretamente o valor de um candidato, a estratégia mais segura é contratar alguém de uma população bem conhecida do que alguém com qualidade não comprovada ou incerta.

A sociedade esta impregnada de viés social. É a cola que mantém culturas e organizações intactas, em meio à globalização. Muitos apresentam viés de preferência por proeza atlética, personalidade carismática ou aptidão acadêmica. Estamos confortáveis com esses preconceitos, orgulhosos de nossa tolerância e sofisticação em aplicá-los. Alguns têm viés de preferência de afiliação religiosa, origem étnica ou similaridade física. Chamamos esses preconceitos de vergonhosos, enquanto continuamos a nos prender a eles secretamente. Mas agora podemos quantificar o viés e os números não mostram um quadro bonito. Sempre haverá viés e eles serão cada vez mais precisos. Mas devemos ter cuidado. Pois qualquer viés, preciso ou artificial, pode ter efeitos duradouros sobre uma população.

Tomadores de decisão humanos são propensos a centenas de vieses cognitivos. Seja isso relevante ou remotamente preciso em qualquer medida objetiva, o viés pode ter efeitos negativos e positivos sobre uma população humana. O problema com preconceito na previsão, é que qualquer sucesso é enganoso. Através da sorte ou da habilidade, sempre que alguém é um pouco bem-sucedido na previsão, eles invariavelmente querem explorar essas novas habilidades preditivas. E essa exploração abusiva se torna a nova regra do jogo.

 

Na maioria das práticas de Machine Learning, os dados de treinamento são considerados, e muitas vezes presumidos, como representativos para os dados sobre os qual o modelo de previsão será implantado, sem muito mais a adicionar. Com algumas exceções notáveis, práticas de Machine Learning abstraem suas informações a partir de um mecanismo gerador de dados e, portanto, vê os dados como a matéria-prima a partir da qual as previsões devem ser extraídas. De fato, a aprendizagem mecânica geralmente carece do vocabulário para captar a distinção entre dados observacionais e dados aleatórios.

A maior parte da literatura sobre previsão assume que as previsões são feitas por um observador passivo sem influência no fenômeno. Por outro lado, a maioria dos sistemas de previsão são usados para tomar decisões sobre como intervir em um fenômeno. Muitas vezes, a suposição de não-influência é bastante razoável – digamos, se queremos prever se vai ou não chover, a fim de determinar se devemos levar um guarda-chuva. Neste caso, se decidimos ou não levar um guarda-chuva claramente não afeta o tempo. Mas em outros momentos, as coisas são menos claras …

―Omkar Muralidharan, et al., Causalidade em Machine Learning (2017)

 

Exploração de dados exige uma profunda compreensão da causa e efeito ou profundas reservas de sorte. Este assunto é um desafio até mesmo para aqueles cientificamente treinados e um dos mais difíceis problemas em IA. Existe um excelente trabalho que explora o papel da causalidade na aprendizagem mecânica. Em suma, a mesma máquina preditiva que desembarcou os seres humanos na lua é surpreendentemente fácil de descarrilhar. Os mesmos preconceitos que prejudicam nosso raciocínio, tornam mais fácil contaminar, por exemplo, os modelos de IA treinados por humanos, por meio de dados humanos, para que outros humanos possam interpreta-los.

Muito tempo depois que as máquinas assumirem todas as decisões, nossas tendências heurísticas continuarão a guiar suas trajetórias balísticas. Embora nunca possamos eliminar o viés humano, podemos garantir que as máquinas sejam menos propensas a estatísticas como a seleção e viés de verificação. Aqueles que treinam a IA em um novo domínio devem estar se perguntando três questões importantes:

 

  • Nós estamos realmente medindo o que queremos medir? (Validade do Teste)
    • Muitos publicitários querem maximizar cliques. Essa é uma batalha perdida.
    • Objetivos talvez mudem ao longo do tempo de vida produtiva de um modelo.
    • Um objetivo mal-escolhido pode ter consequências não intencionais.
  • Os dados de treinamento são acurados e livre de viés oculto? (Validade Interna)
    • Pessoas constantemente esquecem (ou convenientemente ignoram) variáveis de confusão?
    • Se a função geradora de dados é viesada, o modelo irá programar isso no seu viés.
    • O método de amostragem talvez tenha um viés oculto.
  • A base de dados de treinamento generaliza bem na prática? (Validade externa)
    • Talvez os dados de treinamento tenham emperrado ao longo do tempo.
    • Talvez o modelo esteja com dados ausentes em algumas variáveis demográficas chave.
    • Talvez a verdadeira população não é a população pela qual barganhamos.

 

Essas perguntas são apenas pistas na busca de viés indesejados. Eliminando fontes de viés estatístico, podemos garantir que os preconceitos humanos são aparentes pelo que são e não oculta-los como erros estatísticos disfarçados. Mas não devemos verificar listas e executar testes-t complacentemente. A IA promete grande poder preditivo, mas com grande poder vem grande responsabilidade. E a aprendizagem responsável da máquina exige que analisemos os incentivos humanos, desafiemos vigorosamente nossas suposições e avaliemos constantemente a validade dos modelos treinados.

Viés é uma parte impossível de retirar do mundo – cada dado é ligeiramente carregado, cada coluna ligeiramente inclinada de uma forma ou de outra. Machine Learning apenas formaliza o viés, abençoando-o sob os auspícios da validade. Viés pode ser encontrado em todos os lugares a partir do menor neurônio em uma rede de neurônios, para o maior conjunto em uma premiada apresentação do Kaggle. Redes neuronais estão essencialmente computando a soma de vários viéses – a medida que a rede vê mais dados, ela atualiza seu viés. Ao longo do tempo, alguns se tornam mais fortes e outros se tornam mais fracos. Como seus primos biológicos, os neurônios artificiais são detectores de coincidência – eles não podem distinguir associação de causalidade. A inteligência é condicionada de relacionar a associação com causalidade, gerando todo tipo de alarmes falsos e comportamentos supersticiosos.

 

Há cinquenta mil anos atrás, havia três caras espalhados pela planície e cada um deles ouviu algo fazendo barulho por trás das ravinas. O primeiro pensou que era um tigre e correu como se não houvesse amanhã. Realmente era um tigre e ele escapou. O segundo pensou que o sussurro era um tigre e correu como se não houvesse amanhã, mas era apenas o vento e todos os seus amigos riram dele por ter sido covarde. Já o terceiro cara pensou que era apenas o vento e deu de ombros e com isso o tigre o colocou como jantar. E a mesma coisa aconteceu um milhão de vezes através de dez mil gerações – e depois de um tempo todo mundo estava vendo tigres na grama, mesmo quando não havia tigres, porque até ser um covarde permite que você tenha mais filhos do que cadáveres. E a partir desses humildes começos aprendemos a ver rostos nas nuvens, potências nas estrelas, ver padrões em eventos aleatórios, porque a seleção natural favorece o paranóico. Mesmo aqui, no século 21, podemos tornar as pessoas mais autênticas apenas rabiscando um par de olhos de Tigre na parede. Mesmo agora nós somos programados a acreditar que coisas invisíveis estão nos observando.

―Peter Watts, Echopraxia (2015)

 

Sempre haverá um viés mais ou menos preciso, dependendo do que estamos medindo e do resultado que esperamos prever. Mesmo assim, Machine Learning apenas reflete os dados que nós usamos, não os possíveis confins de um parâmetro invisível, nem as possibilidades se o mundo fosse um lugar diferente. Se não examinarmos essas hipóteses, estaremos condenados a fugir dos tigres na grama, a construir monumentos para causas falsas e deixar a grandeza sumir em meio a pobreza. Quantos Lincolns foram baleados, ou Einsteins colocado sob a espada em nome de algum viés falso?

Há um curso perigoso à frente no caminho para a autonomia. Se mantivermos o viés de que apenas aqueles que produzem capital merecem recebê-lo, a desigualdade econômica de hoje crescerá exponencialmente ainda mais. Da mesma forma que a origem genética ou geográfica uma vez já predeterminaram a mobilidade social do indivíduo, a aptidão econômica passará a determinar a segurança financeira de cada um. Em tal futuro, apenas aqueles que são rápidos o suficiente, inteligentes o suficiente, ou ricos o suficiente para acelerar o ritmo de automação vão desfrutar da prosperidade e bem-estar para garanti-la. E esse é um preço muito alto para pagar por um pequeno aumento de conveniência e segurança.

Não se trata de uma questão de Bem-Estar Social. Trata-se de prolongar nossa vantagem competitiva em relação à automação. Ao aplicarmos as mesmas tendências da biologia evolutiva à educação e ao emprego, estaremos subutilizando amplamente o potencial humano. Devemos buscar todas as oportunidades para oferecer capacidade criativa e oportunidade profissional para pessoas de todas as esferas da vida. Senão iremos sempre preferir candidatos surdos para trabalhar em ambientes ruidosos, e pessoas idosas para assumirem posições de liderança. Devemos capacitar aqueles com deficiência mental e física para encontrar papéis onde possam utilizar suas habilidades de forma eficaz. Devemos incentivar os profissionais de alto rendimento em trabalhos mal remunerados, desde o ensino aos cuidados de saúde, e dar-lhes ferramentas para se tornarem mais eficazes na escola e no local de trabalho.

 

Trabalho em andamento

A Inteligência Artificial às vezes opera sob uma melodia ruim. Muitas vezes ouvimos sobre a IA em termos muito competitivos: quando os bots não estão roubando nossos empregos ou nos vencendo no xadrez, eles estão funcionando de maneira errada ou causando alguma intrusão de privacidade. E embora seja importante manter um ceticismo saudável do papel perigoso que a IA representa para a nossa sociedade, penso que vamos olhar para trás em muitas aplicações iniciais da IA como pouco criativas.

 

Os independentes, enraizados nas fazendas e pequenas cidades do Ocidente, eram inovadores, mas de um tipo conceitual, não do tipo técnico à la Alexander Bell … Eles intuíram que o valor supremo do telefone não era uma versão melhor do telégrafo ou um meio mais eficiente do comércio, mas como a primeira tecnologia social.

Tipicamente, os sistemas de telefonia rural eram redes sociais gigantescas, permitindo que toda uma comunidade conversasse ou se ouvisse. Obviamente não havia privacidade, mas havia benefícios para a telefonia comunal que iam além de uma comunicação pessoal segura. Os agricultores usavam as linhas telefônicas para levar suas próprias apresentações musicais …

E assim, enquanto a Bell Company pode ter inventado o telefone, claramente não percebeu o espectro completo de seus usos. Esta é uma aflição tão comum que podemos chamá-la de “miopia do fundador”. De tempos em tempos, no desenvolvimento da tecnologia, a apreciação completa da importância potencial de uma invenção cai sobre os outros …

—Tim Wu, The Master Switch: The Rise and Fall of Information Empires

 

Tecnólogos normalmente querem resolver antigas pontuações. Astrônomos gregos inventaram computadores primitivos para prever o movimento celestial, mas nunca sonharam que seus descendentes os usariam para navegar nos céus. Os desenvolvedores de tecnologia de microondas não pretendiam usar radar para aquecer alimentos. Se você tem um algoritmo geral que aprende a maximizar recompensas ao escolher repetidamente a partir de um conjunto de ações, então você claramente tem um algoritmo que imprime dinheiro. Mas o mais importante, se você tem uma tecnologia como essa, então você tem uma nova forma de vida inteligente. Por que ensiná-lo a imprimir papel, quando poderíamos ensiná-lo a escrever livros?

A moeda do futuro consistirá de dados e dos recursos computacionais para explorá-los e obter insights. Dizer que o dinheiro desaparecerá na economia pós-escassez seria arrogante, mas imprimir dinheiro é apenas um efeito colateral, um truque de sala de aula em comparação com as possíveis aplicações que IA oferece. Você pode muito bem imprimir clipes de papel  e trocá-los por outros produtos na nuvem. Nosso objetivo deve ser melhorar a vida dos seres humanos, e se o dinheiro é um meio necessário para fazê-lo, então vamos imprimir dinheiro. Embora eu suspeite que imprimir dinheiro seja como distribuir peixes. Se nosso objetivo é realmente melhorar a vida dos seres humanos, em vez de consumidores de manufatura, precisamos dar às pessoas um meio de vida estável e maneiras significativas de buscar a felicidade na Era da automação.

 

A esperança é que, em não muitos anos, os cérebros humanos e máquinas de computação estarão firmemente unidas e a parceria resultante vai pensar como nunca nenhum cérebro humano já pensou e processar os dados de uma forma inédita das Máquinas que conhecemos hoje.

-J. C. R. Licklider, Man-Computer Symbiosis (1960)

 

Uma das principais limitações das interfaces de usuário é a transmissão de dados – teclados e telas só podem trocar uma quantidade limitada de informação com seus usuários. Mas os computadores de hoje têm a capacidade de interagir com seu ambiente em novas maneiras brilhantes. De aviões autônomos a pacientes virtuais e eletrodomésticos para assistentes inteligentes, as máquinas estão se tornando cada vez mais perceptivas e cada vez mais versadas. As máquinas podem ver, ouvir e entender a linguagem natural. Eles podem reconhecer rostos e fala, antecipar nossas intenções e ajudar com tarefas cada vez mais sofisticadas. Chamamos essas capacidades de “inteligência artificial”. Mas um nome mais apto pode ser “inteligência aumentada“.

Existem milhares de aplicações emocionantes de IA, desde o rastreamento da disseminação de doenças infecciosas até a detecção de notícias falsas, desde interfaces computador-cérebro para pacientes com coma, até testes automatizados de hipóteses para cientistas. Aplicações que estão transformando nossa relação com a tecnologia e melhorando a vida de bilhões de pessoas na Terra. Os problemas que encontramos na IA são os mesmos problemas com os quais temos lutado durante a maior parte do século XX. Educação. Oportunidade igual. Emprego. A democratização da tecnologia. Resolver esses problemas exigirá uma visão mais abrangente da IA, que transcenda apenas a classificação, previsão ou automação.

O progresso começa quando paramos de usar algoritmos para apenas prever os hábitos das pessoas, e começar a ensinar-lhes novos. Quando damos às pessoas uma chance de lutar, treinando novamente aqueles cujos trabalhos são ameaçados pela automação. Quando identificamos onde os seres humanos mostram promessa e ensinando-lhes como melhorar. Quando usamos AI para prevenir doenças em vez de projetar medicamentos para tratar os sintomas. O progresso começa quando começamos a reparar sistemas quebrados em vez de explorar sua fraqueza. Se você quer contribuir para a sobrevivência de nossa espécie, saia do jogo de previsão e entre no negócio de fazer progresso.

*Originalmente publicado no Breandan’s Blog

 

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Pular para o conteúdo