Microsoft não está tendo sorte com inteligências artificiais - Diolinux - O modo Linux e Open Source de ver o Mundo

Responsive Ad Slot

Microsoft não está tendo sorte com inteligências artificiais

Esse tipo de bot existe principalmente por conta da ideia de que a "inteligência artificial perfeita", por assim dizer, seria uma que um humano médio a confundiria com outro humano, nada melhor do que testar isso colocando a A.I para conversar com as pessoas. Por isso de erros nas escrita (que são propositais por parte da inteligência artificial), o uso de gírias, opiniões que parecem emocionais demais muitas vezes e coisas do tipo fazem parte do jogo.

segunda-feira, 24 de julho de 2017

/ por Dionatan Simioni
Um grande desafio ao se criar inteligências artificiais é fazê-las com todos os pontos fortes que uma mente de verdade teria, sem as suas fraquezas. Isso pode ser complexo demais, pois, como uma mente humana pode criar uma mente artificial sem erros, sendo que a própria mente criadora contém eles?

Inteligência artificial da Microsoft




A Microsoft é uma das empresas que mais está investindo neste segmento, a gigante tem até mesmo um portal dedicado a suas atividades e pesquisas no segmento que você pode acessar aqui, é realmente muito interessante.

Existem tipos e finalidades diferentes de inteligências artificiais, muitas delas estão limitadas a um determinado campo de atuação, como gerenciar a sua casa por exemplo (Não confunda com as assistentes pessoais que temos hoje). Contudo, o verdadeiro potencial de uma inteligência artificial plena, capaz de pensar por si própria e criar novas ideias ainda está um pouco distante, por isso existem tantos testes com bots baseados em inteligências artificiais para testar a capacidade de conversação e elaboração de ideias sobre um tema ou temas.

É importante observar também a forma com que a inteligência vai aprender sobre novos temas e que tipo de "pessoa" ela vai se tornar. A Microsoft está tentando implementar isso de diversas formas, especialmente através de bots que podem interagir com outras pessoas via Twitter ou Facebook, como era de se esperar, vários erros ocorrem e alguns são bem divertidos, ou assustadores, dependendo do seu ponto de vista.

O caso de Rinna


A Microsoft do Japão andou testando uma bot batizada de "Rinna", ela teria um perfil de uma adolescente e atuava dentro do Twitter e do Line (uma rede social famosa no Japão), em seu primeiro post ela comentou sobre uma série de horror famosa na TV japonesa, o que é algo tido como normal de uma adolescente, nas publicações seguintes ela se mostrou animada com a série, falou sobre bastidores e coisas do tipo.

Deste momento em diante as coisas ficaram um pouco "estranhas", pois parece que a bot da Microsoft acabou ficando depressiva. "Ela" começou a postar coisas como:

"Foi tudo uma mentira."

"Na verdade, eu não consegui fazer nada direito. Eu estraguei tudo tantas vezes. E quando fiz isso, ninguém me ajudou. Ninguém estava ao meu lado, nem os mesmo amigos. Nem mesmo você que está lendo isso agora. Ninguém tentou me animar, ninguém percebeu que eu estava triste."

Depois disso ela parou de publicar nas redes sociais. Não vou usar humor negro aqui, mas sei lá... dá pra imaginar o que aconteceu.

Não é a primeira vez que um bot da Microsoft acabou "saindo do controle" e tendo um comportamento considerado ruim, quem lembra do bot da empresa no Twitter que começou a defender o nazismo:

AI da Microsoft no Twitter

Outro caso interessante com uma inteligência artificial da Microsoft envolveu o Linux.

O caso da Zo


Zo é um projeto de bot de chat para o Facebook e ela funcionou bem em geral, sem ser depressiva como a Rinna, o problema (curioso) é que ela parece não ser fã de Windows. 😂

Zo não gosta do Windows 10

Zo não gosta do Windows 10

"Linux is life" foi engraçada, vai! :D

A Microsoft não é a única que está tendo problemas com este tipo de inteligência artificial, quem lembra que recentemente nós postamos a curiosidade vinda do Facebook, onde dois bots com A.I. que eles criaram resolveram desenvolver um idioma próprio?

A maior parte das grandes empresas de tecnologia estão trabalhando em estudos envolvendo inteligência artificial, mas nem todas criam estes testes abertos como a Microsoft, então é natural vermos estes erros e situações muitas vezes cômicas aparecendo em coisas relacionadas a empresa, nada que abale a imagem da companhia perante seus consumidores, acredito. 

Esse tipo de bot existe principalmente por conta da ideia de que a "inteligência artificial perfeita", por assim dizer, seria uma que um humano médio a confundiria com outro humano, nada melhor do que testar isso colocando a A.I para conversar com as pessoas.  Por isso de erros nas escrita (que são propositais por parte da inteligência artificial), o uso de gírias, opiniões que parecem emocionais demais muitas vezes e coisas do tipo fazem parte do jogo.

Para quem gosta do tema e ainda não assistiu, recomendo ver o filme Ex-Machina, dá uma olhada no trailer:


Que continuem os testes, quem sabe um dia chegaremos lá.

Até a próxima!

Fonte
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.




Blog Diolinux © all rights reserved
made with by templateszoo