[ editar artigo]

[Tradução] Inteligência Emocional para Inteligência Artificial: A Revisão

[Tradução] Inteligência Emocional para Inteligência Artificial: A Revisão

Resumo

 A inteligência emocional emergiu como uma importante área de pesquisa em inteligência artificial que abrange uma ampla gama de domínios da vida real. Também foi feita uma contribuição significativa para trazer novas ideias no campo da inteligência emocional e agentes de software inteligentes. Agentes de aprendizagem e atividades educacionais são muito atraentes para a incorporação tanto para os aspectos emocionais quanto  para a inteligência artificial. As emoções têm um papel importante no comportamento inteligente e influenciam o processo de tomada de decisão humana.

Uma visão geral do estado da arte em pesquisas sobre inteligência emocional, com ênfase em agentes emocionais, abrangendo as áreas que detectam  emoções, agentes emocionais, detecção de emoções de texto, ambientes de modelagem de agentes artificiais, inteligência emocional e diferentes formas de aprendizagem, agentes emocionais em robótica, inteligência emocional em processos de apoio à decisão, inteligência emocional em ambientes interativos, inteligência emocional na classificação e pesquisa, modelos de emoção. A revisão será útil à pesquisa.

Palavras-chave: Inteligência emocional, Inteligência artificial

1. Introdução

Emoções e Inteligência são fenômenos correlacionados e, portanto, emoções devem ser levadas em consideração para projetar um verdadeiro agente inteligente. 

A inteligência emocional é uma disciplina emergente que analisa diferentes aspectos, como modelagem, reconhecimento e controle das emoções humanas. Também fornece a teoria-chave e a base técnica para estudos adicionais da geração de novas redes de sensores, processamento de informações inteligentes, serviços inteligentes e muitos outros tipos de aplicações emergentes. A capacidade de interpretar corretamente sinais emocionais são cruciais em situações da vida real. A inteligência emocional lida com a capacidade de perceber, entender, gerenciar e expressar emoções dentro de si e ao mesmo tempo em lidar com os outros. Os domínios essenciais para a inteligência emocional são mostrados na Fig. 1 [1].

Apenas no final dos anos 90, muitos pesquisadores começaram a levar as emoções em consideração nos estudos que relacionam a inteligência artificial com a interação com o computador. Picard deu uma estrutura para construir máquinas com inteligência emocional. Posteriormente, muitos outros pesquisadores nesta área construíram máquinas que podem raciocinar sobre emoções e também detectar, manipular, entender e expressar emoções. 

Esforços para construir entidades emocionalmente inteligentes continuou sendo concentrada nas seguintes áreas:

  • Capacitar a máquina para detectar emoções

  • Permitir que a máquina expresse emoções

  • Incorporando a máquina de maneira virtual ou física

A aplicação da inteligência emocional em domínios reais levou para um  importante campo de pesquisa chamado Sistemas Multiagentes (MAS, da sigla em inglês) que explora métodos lógicos para fornecer uma especificação rigorosa de como as emoções devem ser implementado em um agente artificial.

Pesquisas recentes nessa área têm se concentrado em permitir que os agentes de software detectem emoções por meio de pistas verbais, não verbais e textuais, ou seja, expressar emoções por meio da fala e de gestos.

Mirjana et al. concentraram suas pesquisas na proposta de um ambiente distribuído, utilizando agentes para  aumentar a eficiência do processamento de informações emocionais. Os autores usaram o MAS para se referir a um sistema de software que exibe tais características.

Pesquisas ativas recentes em IA abordaram a modelagem de comunicação de conteúdos emocionais levando às áreas, como mostra a Fig. 2. Um desafio tecnológico é construir máquinas capazes de:

  • Raciocínio sobre emoções

  • Prevendo e compreendendo emoções humanas

  • Processar emoções enquanto raciocina e interage com um usuário humano

2.  Agentes emocionais e detecção

Pesquisas significativas foram feitas para a elaboração de técnicas que detectam  emoções para a geração de novos sistemas inteligentes baseados na tecnologia de agentes. A detecção das emoções foi reconhecida como um fator importantíssimo na interação homem-máquina. Isso pode trazer as seguintes vantagens:

  • Aprimorando o desempenho do aluno no e-learning 

  • Melhorar a experiência de dirigir 

  • Aumentar a satisfação do cliente 

Foi feito um esforço para estudar os seres humanos como seres afetivos e a necessidade de desenvolver agentes artificiais complexos que sejam capazes de comunicação afetiva. O autor propôs razões independentes para a utilidade de desenvolver agentes afetivos. Em outro estudo, concluiu-se que os agentes inteligentes ou personagens não-jogadores (NPCs, na sigla em inglês) são necessários para os cenários de interação humana  para reagir de maneira consistente como cenário de treinamento. Eles desenvolveram um modelo para incorporar melhorias emocionais (raiva, tristeza, ansiedade e medo) em agentes inteligentes. O modelo NPCs permite a aplicação de treinamento virtual para simular gerenciamento de crises de comportamento.

Tosa e Nakatsu analisaram interações reais dos agentes com sensor de comunicação emocional e consideradas emoções que são interpretadas do ser humano, como  vozes e respostas emocionais. Camurri e Coglio propuseram uma arquitetura geral, flexível e poderosa para construir agentes de software com emoções artificiais para transmitir emoções humanas, permitindo, assim, mais efetividade, estímulo e interações homem-agente naturais. Anderson e McOwan apresentaram um sistema automatizado em tempo real para o reconhecimento de expressões faciais humanas. Dentro do domínio emocional do agente inteligente, após importantes instruções foram identificadas três emoções. Estas foram facial, vocal e texto.

O reconhecimento facial levanta o conjunto mais complexo de problemas, mas existem algumas soluções eficientes. Ioannou et al. apresentou um modelo que inclui adaptação e aprendizado em um sistema “neuro-confuso” para analisar os parâmetros de animação facial. Burkhardt et al. propôs que o processamento das emoções vocais consiste em seguir três estágios:

1) Extração de Recursos

2) Classificação dos dados

3) Pós-processamento

A classificação dos dados e a correspondência de padrões é o principal ponto. As diferentes abordagens que foram avaliados são os seguintes:

  • k-NN e classificadores discriminantes lineares 

  • redes neurais artificiais 

  • máquinas de vetores de suporte 

  • modelos Markov ocultos 

  • Modelos de mistura gaussiana 

Alm et al. visaram melhorar os sistemas de conversão de texto em fala para os contos de fadas das crianças, reconhecendo emoções. Wu et al. propôs que sentenças pudessem ser representadas como sequências de rótulos e atributos semânticos e, em seguida, processado por um modelo de mistura separável para calcular semelhanças com as regras de geração de emoções.

Strapparava e Mihalcea  propuseram vários algoritmos que foram empregados para classificar títulos de notícias com base em seu conteúdo emocional. Chuang e Wu  argumentaram que a combinação de reconhecimento de voz e texto produz melhores resultados do que quando apenas uma única abordagem é usada. Fragopanagos e Taylor  também propuseram uma abordagem baseada em rede neural para analisar entrada facial / vocal. Agentes de software inteligentes podem ser aplicado e usam emoções vocais e reconhecimento facial. Esses agentes são distribuídos naturalmente e, portanto, podem ser usados para otimizar a seleção, classificação e reconhecimento de padrões. Um agente pedagógico especial é usado em sistemas de e-learning para orientar e motivar estudantes. Muitos pesquisadores incorporaram emoções em agentes, resultando em uma série de modelos para agentes emocionais e os desafios do desenvolvimento de agentes conversacionais  foram incorporados com sucesso.

Suzuki et al apresentou o conceito de realização de um agente para interação inteligente entre humanos e robôs.

Os autores combinaram um modelo computacional com emoções artificiais e recursos de aprendizado e auto-adaptação. Um robô pode mudar seu "estado emocional" com base em gestos humanos, exibido por meio de mídia visual integrada, luzes ambientais e mudanças no estilo do comportamento e movimento do robô. Yamaguchi et. al. usou um modelo de conhecimento, emoção e intenção.  Foi gerada a cooperação de um agente humano durante a dinâmica determinação da ação de cada robô. Dominguez et al. propôs que um agente inteligente em robótica móvel deveria ser adaptado às condições dos ambientes com base em suas capacidades físicas e mentais. Os autores propuseram um agente temporal baseado em conceitos, emoções e processamento de consciência. A motivação era alcançar comportamentos que são consistentes com o desempenho inteligente no mundo real.

Dominguez et al. identificou o papel essencial das emoções no controle e na organização do comportamento de sistemas robóticos. Os autores propuseram uma avaliação em tempo real da arquitetura emocional (RTEA, na sigla em inglês) que permite a regulamentação do comportamento de agentes robóticos. A RTEA ajuda os robôs a cumprir os objetivos com base em seu estado emocional e capacidades mentais. Isto também permite que o robô tenha um controle mais adequado da capacidade mental e garantir a integridade do sistema. Zhang et al. propôs um modelo de agente robô com estrutura de múltiplas emoções que harmoniza a interação entre o humano e computador. Autores consideram extensivamente a construção de modelo afetivo, modelo de aprendizado e agente de percepção do modelo emocional. Fatores primários que atribuem a geração da emoção do robô são extraído e, em seguida, um método de construção de modelo afetivo é introduzido com base na Teoria Relacional de Grey. O modelo de aprendizagem do robô é baseado em probabilidade e, em seguida, o conceito de correlação afetiva no agente de percepção é dada.

Finalmente, um método de modelagem baseado na previsão de Grey para o modelo correlativo afetivo é apresentado. Experiências mostraram que os robôs possuem capacidade significativa de interação inteligente.

De Silva et al. considerou um robô para jogos interativo, como instrumentos que podem ajudar o  desenvolvimento emocional de crianças com problemas de saúde mental. Eles esperaram que as pessoas mostrem comportamentos empáticos e levem em consideração conta suas emoções. Sanderson e Pitt consideraram um agente veicular situado em um cenário de condução em uma rodovia.

 Foi apresentada uma avaliação das expectativas afetivas dos agentes de arquitetura (combinação de psicologia e modelos de robótica) para aprimorar a teoria da previsão dessa intenção a fim criar um mecanismo de avaliação de situação online para a avaliação preferencial dos estados futuros previstos. A arquitetura exigia mais do que planejamento direcionado a objetivos. Os agentes devem modelar o comportamento de outras pessoas, prever e avaliar estados futuros. Kim et al. propôs um sistema de memória para um robô afetivo com emoções.

 Os episódios de armazenamento, retenção e recuperação de memória são modelados com bases psicológicas. Para sua verificação, os autores do sistema implementaram um agente virtual semelhante a um animal de estimação como modelo de geração de emoções reativas.

3. Modelando os agentes artificiais

Os resultados do trabalho desta pesquisa foram relatados na direção de formalização de emoções no MAS. Os autores usaram o formalismo da teoria da decisão para desenvolver princípios e definições de estados emocionais de um agente racional. Ishihara e Fukuda  descreveram um algoritmo emocional avaliando um modelo emocional artificial. Foi analisada a eficiência de diferentes características do agente com algoritmo emocional. Um novo sistema de sinal de trânsito, que otimiza o fluxo de tráfego por estimativa da mente do motorista, foi proposto. O espaço emocional dentro do sistema consiste nos quatro fatores a seguir: (1) feliz, (2) alívio, (3) medo e (4) zangado. A função emocional imita o estado de mente do motorista e as características da função emocional alcançam  diferenças da individualidade. Os autores também propuseram a arquitetura principal do algoritmo emocional com um indivíduo e um sistema de sinal de trânsito simulador.

Vlad et al. propôs um modelo que simula os estados internos das emoções dos agentes autônomos. O modelo conecta entradas simuladas do sensor de toque em uma saída de identificação das emoções e inclui sistemas emocionais baseados em emoções confusas.

Predinger e Ishizuka desenvolveram um modelo de interação entre usuários e agentes animados com características da conversa afetiva e interação social.

Pelczer et al. apresentou  um modelo computacional de emoções que podem ser facilmente integradas em um avatar de interação. Os avatares emocionais manifestam comportamentos expressivos influenciados pela definição da personalidade. Memon e Treur apresentaram um modelo focado na modelagem cognitiva e de um agente biológico para gerar estados emocionais. Os autores discutiram como a leitura da emoção pode ser modelada tanto a nível cognitivo quanto a nível biológico, seguindo a  abordagem da teoria da simulação à leitura da mente. Além disso, uma teoria cognitiva foi apresentada para leitura de emoções que mostra como os modelos de agentes cognitivos e biológicos podem estar relacionados. Bosse et al. desenvolveu um modelo virtual para fornecer mais agentes afetivos realistas, quando é necessário que tenham a capacidade de gerar e regular emoções e a capacidade de raciocinar sobre os processos de regulação emocional de outros agentes.

Jones et al. desenvolveu uma arquitetura para apoiar a fisiologia, emoção e personalidade e ilustrou como é usada para modelar situações de crise. Duell et al. considerou um modelo baseado em agente para emoção de grupo que apoia as equipes em sua dinâmica emocional. O agente ambiental apoia a equipe e propõe um líder.

Os autores também realizaram experimentos para simular a situação. Dang et al. ​​desenvolveu um modelo para essa abordagem genérica. Modelos computacionais baseados em emoções (com base em diferentes teorias psicológicas) compartilham propriedades e processos emocionais. O modelo GRACE visa unificar os modelos existentes em uma única arquitetura.

Moore relatou alguns fenômenos psicológicos nos quais respostas emocionais dramáticas são evocadas.

Atualmente, a IA depende cada vez mais da computação em nuvem. O objetivo é modelar o leque de emoções das pessoas, bem como sua dinâmica. Existem diferentes estruturas, bibliotecas, aplicativos, kits de ferramentas e conjuntos de dados em  IA e o aprendizado de máquina. Criando um diretório de interface neural com a internet, a humanidade será capaz de se conectar a uma inteligência superior. Os cinco componentes de AI com inteligência emocional são as seguintes: aprendizagem profunda, autoconsciência, segurança e ética, consciência externa e grande coleta de dados e processamento modernos (Fig. 3). As emoções são partes essenciais da inteligência humana e sem inteligência emocional, a IA está incompleta.

 

Outro aspecto interessante é olhar para o modelo da mente. Um modelo mental para agentes realistas deve ter os seguintes recursos:

  • Expressar emoção

  • Gerar comportamento com base na motivação

  • Aprendizagem

  • Atenção seletiva

  • Gerar comportamento reativo

O processamento de informações com emoções não é apenas importante, mas também é útil para muitas aplicações, como secretárias eletrônicas, sistemas de tutoria e caracteres autônomos de entretenimento. Por exemplo, as crianças tendem a acreditar que os personagens da animação da Disney são reais. Uma razão para esse fenômeno é que os personagens expressam emoções e personalidades ricas.

Comportamentos do personagem aliados a emoções e personalidades facilitam a visão antropomórfica. Não há um interruptor no cérebro que pode ser acionado para distinguir o real e mundos mediados. Estas são algumas das razões pelas quais as pessoas personificam o comportamento de uma máquina e têm ilusões que personagens de desenhos animados têm inteligência humana. Agentes artificiais  com emoções dão essas ilusões aos usuários, uma vez que utilizam características humanas. Existe uma forte necessidade de combinar inteligência artificial com inteligência emocional.

4. Inteligência emocional

Existem várias características interessantes em uma mente artificial. Mentes artificiais entendem emoções porque as pessoas se comunicam umas com as outras por meio da expressão emocional. Foi enfatizado que a emoção é a operação predominante, mediando tanto a cognição quanto a ação e a IA deve ter a capacidade de processar emoções. Portanto, uma máquina deve ser capaz de processar informações sobre as emoções de um usuário para que ele possa entender as metas dele e outras informações. Alcançar isso é crucial para construir modelos computacionais de emoção. Mentes artificiais entendem a motivação. As pessoas interpretam o significado das questões de acordo com seus desejos e preocupações. As pessoas consideram a motivação dos outros quando estimam sua emoção e intenção, o que explica suas ações e previsão de ações futuras. Portanto, é necessário que a interface do usuário  seja entendida pelos agentes. Por outro lado, pode ser fácil para os usuários preverem o comportamento do agente com base na sua motivação.

Huang et al trabalhou com o aprendizado emocional e domínio de inteligência. A arquitetura de aprendizagem  baseada no agente com expressão facial de emoção foi proposta. O agente emocional demonstrou diferentes expressões faciais no site experimental. Cheng et al. realizou uma combinação instrumental do humano virtual empático com o sistema de aprendizagem. No entanto, existem poucos estudos sobre como projetar agentes pedagógicos interativos com estratégias de empatia. Wang et al. propôs o conceito de "Computação afetiva", uma vez que a inteligência não é mais puramente cognitiva. Eles propuseram um sistema de e-learning emocional do agente móvel que reconhece e analisa o estado emocional do aluno, um professor virtual regula a psicologia do aprendizado desse aluno com base em suas características. Faghihi et al. propôs o sistema de tutoria consciente (CTS, na sigla em inglês), onde um agente cognitivo baseado no modelo biológico das funções do cérebro humano, é capaz de aprender e lembrar de eventos ou qualquer informação relacionada. Tal agente é capaz de melhorar seu comportamento lembrando comportamentos previamente selecionados, influenciados por suas emoções. Com a ajuda de algoritmos de mineração de dados, a arquitetura incorpora uma consolidação realista do processo  da memória. Tsai et al. tentou incorporar vários aspectos para a interação do aluno em um ambiente educacional: reconhecimento da fala, inferência emocional e agentes virtuais. Analisando o discurso capturado, eles foram capazes de indicar o estado emocional do aluno-alvo e proporcionar um diálogo para interação aluno-agente. Essa experiência indicou alto potencial de aplicação para esses sistemas.

Chatzara et al. apresentou um modelo em que a parte central do sistema é um agente emocional que afeta a atitude dos alunos para a aprendizagem. Esse caráter sintético ajuda os alunos a superar os obstáculos de aprendizagem presencial. Vários caracteres sintéticos têm o potencial para expor emoções gravando as emoções do usuário e reagir de acordo com a melhoria dos processos de e-learning. Foram realizadas experiências com 52 alunos. Arroyo et al. considerou questões de gênero e as reações de homens e estudantes do sexo feminino à presença de atividades de agentes  pedagógicos que forneceram apoio emocional e motivacional.

Os autores fizeram os experimentos com Sistema Inteligente de Explicações para Matemática. O sistema melhorou os resultados afetivos de todos os alunos.

Rodrigo et al. analisou os efeitos do efeito afetivo nos estados exibidos por estudantes usando um sistema de ensino inteligente  com e sem um agente de software interativo.

Moridis e Economides  previram que a empatia  é um comportamento eficaz para o modelo de conversação incorporada. Agentes - ECAs para fornecer feedback às emoções dos alunos.

Os autores analisaram o impacto do tom emocional e facial das ECAs e das expressões combinadas com comportamento verbal empático quando exibido como feedback para as emoções dos alunos: medo, tristeza e felicidade. Haugwitz et al.  desenvolveu um agente com habilidades de aprendizagem. Um algoritmo de aprendizado para o reforço foi incorporado em um MAS de pequena escala. Foram realizadas experiências para comparar duas abordagens: ter parâmetros de aprendizado fixos e usando parâmetros modulados que foram autorizados a desviar de seus valores base, dependendo da simulação do estado emocional do agente. A última abordagem obteve melhor desempenho. Abdi et al. analisou  o tráfego de fluxo usando conceitos emocionais e MAS. O algoritmo de previsão proposto é capaz de encontrar uma ótima abordagem de previsão pelo aprendizado por reforço.

Daviet et al. desenvolveu um modelo para tomada de decisão em um ambiente de desastre. O modelo combina traços da personalidade de um agente, seus comportamentos emocionais e os eventos que podem afetá-lo. Três tipos de agentes de resgate em um ambiente foram implementados, usando diferentes tipos de inteligência. Guojiang et al. propôs que as emoções devem ser incorporadas no processo de raciocínio de um agente inteligente (robô) quando ele pretende imitar reações. Um modelo de decisão de comportamento de um agente inteligente baseado na emoção psicologia e emoção artificial foi apresentado. O modelo incorpora emoções, motivações e decisão de comportamento.

Rafighi et al.  apresentou um sistema para avaliar o estado de emoção de horror  em que o sistema inteligente baseado em agentes pode sentir quando enfrenta um evento irritante. Três parâmetros relacionados à emoção de horror humano foram considerados como insumos deste sistema. As saídas do sistema devem ser usadas no processo de tomada de decisão do agente. Uma aplicação mais interessante do sistema poderia ser a escolha de uma pessoa para o trabalho em equipe, combinando a intensidade do horror para outras intensidades emocionais. Al-Shawa relatou que a racionalidade restrita é uma estrutura de raciocínio específica para analisar e racionalizar sobre decisões / conflitos estratégicos em MAS. A estrutura foi estendida para os seguintes mecanismos:

a) Modelar as prioridades, emoções e atitudes dos agentes dentro do contexto do conflito.

b) Eliciar as preferências cardinais e ordinais do agente sobre suas alternativas usando a quantidade de realização que os objetivos estratégicos dos agentes podem aproveitar de cada alternativa de acordo com os objetivos coletivos, restrições, prioridades, emoções e atitudes que os agentes podem ter individualmente.

Um modelo com processos de tráfego e condução foi apresentado pelos autores. Salichs e Malfaz apresentaram uma nova abordagem à geração e ao papel das emoções artificiais na tomada de decisão realizada por agentes autônomos-drivers (físicos e virtuais). Como sempre, a tomada de decisão é inspirado em um sistema  biologicamente altamente baseado em motivações e emoções. Experimentos foram realizados em agentes virtuais que vivem em um ambiente virtual simples. A utilidade das emoções artificiais é comprovada pela realização das mesmas experiências com e sem emoções artificiais e, em seguida, é comparado o desempenho dos agentes.

Masuch et al. apresentou um novo aplicativo independente do modelo em que os agentes possuem personalidades individuais e emoções dinâmicas. O modelo permite renderizar um rico conjunto de comportamentos para os personagens virtuais em ambientes de aprendizagem.

Diferentes estudos demonstraram que os humanos interagem com agentes afetivos como atores sociais. Lai e Hu concentraram-se na tecnologia multiagente e na formalização de agentes racionais e emocionais para a interface homem-máquina.

Abbasi e Shaikh apresentaram uma abordagem para prever a emoção instantânea que ocorre em conversas usando apenas conteúdo textual. Os resultados preliminares, que alcançaram de maneira generalizada os agentes de software, refletem conversas mais satisfeitas. Di Lorenzo et al. apresentou um modelo em que os sistemas ambientais, equipes e sua dinâmica emocional baseado no modelo de suporte agente emocional do grupo eram componentes centrais. Do e King apresentaram um sistema automático em tempo real capaz de criar um discurso expressivo usando um conjunto de modelos matemáticos. Esta abordagem permite adicionar emoções em animação sintética no discurso em áudio e vídeo. Um sistema de rastreamento com câmera de alta velocidade foi usada para coletar os dados de movimento facial. O modelo emocional proposto direciona parâmetros prosódicos para controlar a geração de áudio sintético e parâmetros musculares para controlar o formato do rosto.

Os autores testaram o modelo desenvolvendo um sistema de bate-papo baseado em emoções para criar um discurso emocional sintético. Liebold e Ohler propuseram que o uso de agentes virtuais com emoções e expressões é visto como uma maneira natural de utilizar a interação com o usuário. Os efeitos do unimodal versus multimodal no reconhecimento de emoções e expressões em determinado estado emocional foram considerados. Experiências realizadas mostraram que expressões multimodais de emoções obtêm maiores taxas de reconhecimento. Zoric et al. forneceu uma extensa pesquisa de gestos faciais com tipos especiais de exibição de gestos, como levantar a sobrancelha, piscar e movimentos da cabeça. Em comparação com o verbal e o emocional, os gestos faciais são menos tangíveis, mas transmitem  comportamentos mais naturais do rosto.

Um agente de notícias sensível a afetos (ASNA, na sigla em inglês) significativamente difere dos modelos similares foi apresentado pelos autores. As principais diferenças em comparação com outros trabalhos semelhantes são:

  • A aplicação de uma teoria cognitiva das emoções ( modelo OCC). Os autores integraram a abordagem ao sentido das informações afetivas de textos de notícias.

  • Os autores usaram o bom senso e os assuntos atuais como base de conhecimento. Além disso, fizeram uma abordagem baseada em regras para avaliar cada linha de texto, atribuindo uma valência numérica.

  • O uso de técnicas de processamento de linguagem natural para categorizar automaticamente as notícias  baseadas na afinidade emocional.

Herrera et al. apresentou um sistema baseado em lógica difusa com o  objetivo de gerar emoções para um vendedor ou avatar virtual.

Karim et al. apresentou uma recomendação eficiente baseada no sistema do agente  emocional que navegação na web. O sistema não apenas pode receber informações do ambiente com precisão, mas também fornece recomendações eficientes dos sites. As experiências mostram que a proposta do agente emocional que navega na web pode recomendar com eficiência sites com base nas emoções do usuário. Colhon et al. apresentou um método de classificação de sentimentos para a categorização de avaliações de turistas.

5. Conclusões e questões emergentes da pesquisa

Os autores revisaram a inteligência emocional para várias aplicações em inteligência artificial. A pesquisa abrangeu as seguintes áreas:

  • As emoções de cada pessoa são privadas e, portanto, preocupações sobre violações da privacidade são genuínas. Os riscos associados à IA, especificamente à coleta, armazenamento, transferência e uso de informações confidenciais para tratar da questão da privacidade.

  • Precisão da inteligência artificial determinando incorretamente o conteúdo emocional precisa ser confirmado, especificamente em relação a erros do sistema, antes de rotular uma pessoa com inteligência emocional alta ou baixa.

  • Os programas de Inteligência Artificial devem apropriadamente responder a usuários humanos, para não piorar seu estado emocional ou acidentalmente facilitar a situação avançada.

  • São necessários protocolos de resposta sobre como lidar adequadamente com casos de alto risco, sinalizados pela  tecnologia da Inteligência Artificial.

  • Existe uma lacuna de conhecimento entre os principais usuários sobre como a tecnologia de Inteligência Artificial se encaixa na compreensão do  emocional.

  • É necessário mais educação sobre o assunto para resolver esse problema.

  • Não existe um modelo formal capaz de caracterizar adequadamente emoções complexas, como o arrependimento, ciúmes, inveja, vergonha, culpa, censura, admiração, remorso, orgulho e constrangimento entre uma série de seres humanos.

  • É necessário fazer uma extensa pesquisa nas áreas de design emocional vocal para comunicação homem-máquina. Isso deve ser feito porque os futuros projetos de robôs interativos precisam  não apenas de uma rica expressão vocal, mas também devem ser capazes de realizar o reconhecimento de emoções vocais.

Para acompanhar o texto original, acesse: 

https://pdfs.semanticscholar.org/4ea3/36562801cad257a183d70db86802d2c2398d.pdf




 

 

Comunidade Sebrae
Ler matéria completa
Indicados para você