Encontrar empresa por:

Ícone TítuloNotícias

Compartilhe:

Cinco princípios éticos para o desenvolvimento de Inteligência Artificial no mundo dos negócios

01/08/2017


Por Kriti Sharma, vice-presidente global de Bots e Inteligência Artificial da Sage
 
A crescente aplicação da inteligência artificial no mundo dos negócios torna essencial a adoção de princípios sólidos que assegurem a ética e a responsabilidade no uso dessas novas tecnologias. Pensando nisso, a Sage estabeleceu cinco princípios, que passam a nortear toda atuação da companhia nesse segmento, agora reunidos no documento “A Ética do Código: 5 princípios éticos para desenvolver Inteligência Artificial para negócios”. O estabelecimento de critérios claros nesse sentido mostra-se fundamental para proteger usuários e garantir segurança e confiabilidade dessas ferramentas. É ainda um caminho para que essas soluções sejam inclusivas e expressem a diversidade de seus usuários.
 
Desenvolver chatbots e inteligência artificial que sejam úteis para os nossos clientes é a parte fácil. São muitos os questionamentos que emergem com o advento da inteligência artificial. Por isso, desenvolvemos nossa ação nesse segmento com base em uma série de valores. São esses princípios essenciais que, na nossa visão, contribuem para assegurar que nossos produtos serão seguros e éticos.
 
Os cinco princípios que norteiam mundialmente a estratégia da Sage para IA também guiam a atuação da companhia no Brasil. Por aqui, a empresa criou o Sage Labs, uma equipe encarregada de pensar em maneiras de empregar novas tecnologias em software que os clientes usam todos os dias.
 
A Ética do Código: 5 princípios éticos para desenvolver Inteligência Artificial no mundo dos negócios
 
1. IA deve refletir a diversidade de seus usuários
 
Precisamos criar inteligência artificial que seja diversa em sua origem. Como comunidade industrial e tecnológica, temos de desenvolver mecanismos efetivos para barrar o preconceito e qualquer sentimento adverso que possam ser assimilados pela IA, de forma a assegurar que ela não irá perpetuar estereótipos. A não ser que tenhamos equipes, bases de dados e design cuja natureza seja a diversidade, estamos sob risco de repetir a desigualdade que marcou revoluções passadas.
 
2. IA deve ser responsável, assim como seus usuários
 
Nós aprendemos que os usuários estabelecem um relacionamento com a IA e começam a confiar na mesma após algumas poucas interações. Com a confiança, vem a responsabilidade. A IA precisa ser responsabilizada por suas ações e decisões, como se fosse um ser humano. Não se pode permitir que a tecnologia fique inteligente ao ponto de não ser responsável. Não aceitamos esse tipo de comportamento de outras profissões especializadas. Então, por que a tecnologia deveria ser a exceção?
 
3. Recompense a IA por "mostrar o seu funcionamento"
 
Qualquer sistema de IA que aprenda com exemplos ruins pode acabar se tornando socialmente inadequado - temos que lembrar que a maior parte da IA de hoje não tem conhecimento do que está dizendo. Somente a ampla audição e a aprendizagem de diversas bases de dados resolverão isso.
 
Uma das abordagens é desenvolver um mecanismo de recompensa ao treinar a IA. As medidas de aprendizagem de reforço devem ser desenvolvidas não apenas com base no que AI ou robôs fazem para alcançar um resultado, mas também sobre como a IA e robôs se alinham com os valores humanos para atingir esse resultado particular.
 
4. O jogo da IA deve ser igual para todos
 
Tecnologia de voz e robôs sociais fornecem novas soluções de acesso, especificamente para usuários desfavorecidos por problemas de visão, dislexia e mobilidade limitada. Nossa comunidade empresarial tecnológica deve acelerar o desenvolvimento desses recursos a fim de oferecer condições igualitárias e ampliar os talentos que temos, tanto nas profissões da área contábil quanto da tecnológica.
 
5. IA substitui. Mas também deve criar
O melhor caso de uso da IA é automação – atendimento ao cliente, fluxo de trabalho e processos baseados em regras são os panoramas perfeitos nos quais a IA se revela.
 
A IA aprende mais rápido que os humanos e é muito boa em tarefas repetitivas, do dia-a-dia.  E, no longo prazo, é mais barata que os humanos. Haverá novas oportunidades criadas pela robotização de tarefas e temos que treinar as pessoas para essa perspectiva – permitindo que elas possam se concentrar naquilo em que são boas, construindo relacionamentos e cuidando dos clientes. Sem jamais esquecer a necessidade de empatia humana nas profissões centrais como aplicação da lei, cuidados, proteção e complexas tomadas de decisão.