De que modo a IA pode tornar os gestores mais éticos

Tendências

Tornar os diretores mais éticos com a IA

O preconceito no local de trabalho dificulta não apenas a inclusão e a diversidade, como também a criatividade e a inovação. O observador de tendências, David Mattin, afirma que a IA é a solução

 

Em 2016, a Microsoft lançou um novo chatbot, estimulado pela IA, no Twitter. O seu nome era Tay. A Microsoft disse tratar-se de “uma experiência em compreensão de diálogo”. Num período de 24 horas, Tay espalhou uma verborreia de ódio, na sua maioria não imprimível. “Calma, sou uma pessoa simpática. Só que odeio toda a gente”, foi uma das suas poucas frases que podemos aqui citar.

Não foi difícil diagnosticar o problema. Tay utilizou a IA para aprender com as conversas que teve com seres humanos reais e ajustou as suas próprias ideias em conformidade. Era só ódio. Rapidamente, a Microsoft retirou o chatbot e pediu desculpa pelo sucedido. Mas desde então, Tay tem sido a face mais visível da polémica e complexa relação entre a IA e a ética humana.

Desde os feeds do Facebook à bolsa de valores, passando pela distribuição de agentes da autoridade nas nossas cidades, cada vez mais as nossas vidas são em parte regidas, controladas por algoritmos geridos por IA. Como podemos nós garantir que esses algoritmos não se reproduzem simplesmente e reforçam ainda mais as nossas falhas tão humanas, incluindo os preconceitos raciais, sexistas, entre outros?

Formação contra preconceitos

Esse debate irá intensificar-se em 2018. Mas, por enquanto, torna-se evidente que existe uma nova abordagem. E se invertêssemos a discussão? E se perguntássemos: o que podem as IAs ensinar-nos sobre a construção de um mundo mais ético?

Essa pergunta poderá ser chocante, dada a experiência com Tay, e o debate mais alargado sobre como garantir que as IAs não nos irão lançar numa nova idade média. Mas isto começa por uma premissa razoável. Todos os seres humanos têm preconceitos. Muitas vezes não os vemos ou não queremos vê-los. É evidente que as IAs podem adotar preconceitos humanos, mas e se elas fossem também uma ferramenta poderosa para nos ajudar a reconhecê-los, em nós próprios, e em outros?

De facto, esta revolução ética integrada nas IAs poderá começar no local de trabalho. Joonko, uma nova empresa israelita, está a criar uma aplicação que utiliza a IA para ajudar a detetar preconceitos inconscientes nos diretores. A aplicação sincroniza-se com as plataformas comuns do local de trabalho utilizadas para gerir empregados e atribuir tarefas: por exemplo, o Salesforce, o Workday, etc, que começa a funcionar e que pesquisa constantemente dados para encontrar sinais de preconceitos. Se forem detetados, a Joonko envia um e-mail ao diretor em questão e começa a esclarecê-lo sobre saber como corrigir o problema. Por exemplo:“Revi todos os candidatos para o cargo de Diretor de I&D e reparei que não existem candidatos de grupos pouco representados. Também reparei que temos três tipos de candidatos diversos a aguardar na fase de Avaliação da candidatura”.

Naturalmente, os próprios diretores quererão ter sempre a palavra final relativamente à pessoa que contratam. E ainda estamos muito longe de existirem IAs suficientemente inteligentes para gerirem o processo na totalidade. Mas a Joonko e serviços semelhantes baseados em IA já podem fornecer informações importantes que sustentem a tomada de decisões.

De que modo a IA pode tornar os gestores mais éticos

A IA poderia ajudar-nos a pensar e a tomar decisões com uma mente mais clara e imparcial? 
 

Erradicar o bullying

A ideia de que a IA nos pode ajudar a criar culturas mais éticas no trabalho não poderia ser mais oportuna. Um mundo mais interligado é um mundo mais transparente e uma maior transparência irá expor, agora mais do que nunca, a cultura interna de todas as empresas. Muitas vezes, os clientes não gostam daquilo que veem. Basta olhar para a reação negativa contra a grande tecnologia de Silicon Valley que começou em 2017 e que ainda hoje continua. É motivada, em parte, por um sentimento de que as grandes figuras de Silicon Valley cultivaram culturas internas tóxicas de sexismo, intimidação e excesso de trabalho. E esse sentimento tem sido alimentado por testemunhos de empregados atuais e antigos que, num mundo interligado, podem chegar a milhões de pessoas.

As culturas internas do local de trabalho e os respetivos estatutos éticos são das principais prioridades. E quando os empregados ouvem falar da Joonko e de outros serviços semelhantes, é provável que queiram que os respetivos empregadores adotem a IA para garantir um local de trabalho justo e ético. Com os dados corretos, as IAs podem ser treinadas para identificar e destacar todos os tipos de injustiças, como as seguintes:

“Sabia que você tem tendência a promover os homens da sua equipa mais rapidamente do que as mulheres?”

“Sabia que nunca contratou ninguém com mais de 40 anos, apesar de 60% dos candidatos satisfazerem esse requisito?”

Mais ainda, os diretores aceitariam mais facilmente a revelação de um preconceito, e tomariam medidas para o corrigir, se o conselho proviesse de uma IA. A IA está a chegar, disso não há dúvidas. Cabe-nos a nós assegurar que graças a ela podemos ser mais éticos, e não menos. O sítio ideal para começar é no local de trabalho. O próximo passo, uma IA CEO? Talvez seja melhor não sugerir isso na próxima reunião geral.

 


David Mattin é o Diretor Geral de Tendências e Informações no serviço de inteligência de tendências, TrendWatching, com escritórios em Londres, Singapura. Nova Iorque, Amesterdão, São Paulo e Lagos