machine-learning

Nós sabemos que os humanos aprendem através de suas experiências passadas, e que máquinas seguem as instruções que recebem de humanos.

Mas e se os humanos pudessem treinar as máquinas para aprender através de dados do passado e fazer o que os humanos podem fazer, mas com mais rapidez? Bom, isso é chamado Machine Learning.

Apesar de a tradução do termo ser, praticamente, “aprendizado de máquinas”, o conceito é muito mais profundo do que simplesmente aprendizado. O Machine Learning também engloba que uma máquina entenda e raciocine.

Existe uma nuvem de conhecimento acerca do Machine Learning e seu surgimento, dado que esta tecnologia foi fundamental para o surgimento da inteligência artificial, por exemplo.

Hoje, vamos explorar este universo!

Conheça a história do Machine Learning

Arthur Samuel (1901-1990) foi pioneiro na pesquisa em inteligência artificial. De 1949 até o final da década de 1960, ele se destacou fazendo com que computadores pudessem aprender com suas próprias experiências. Seu veículo para isso era o jogo de damas.

Isso ocorreu porque, para Samuel, os jogadores de damas tinham um alto volume de possibilidades, tendo que tomar uma série de decisões entre boas jogadas e ruins.

Para isso, Samuel usou o programa Guia de Damas de Lee para a escolha de jogadas, desta forma, o programa escolheria rapidamente quais eram consideradas as melhores, de acordo com critérios de especialistas em damas.

Em 1961, Ed Feigenbaum e Julian Feldman estavam aprofundando suas pesquisas sobre inteligência artificial e pediram para Samuel informações sobre a melhor jogada do seu programa, como apêndice do artigo que estava sendo formulado por eles.

Samuel usou essa solicitação como uma oportunidade para desafiar o campeão estadual de damas de Connecticut, quarto melhor jogador do país. E o programa de Samuel venceu!

Como este havia sido um dos primeiros exemplos de computação não numérica, as ideias e cadeias de instruções de Samuel, foram utilizadas para o surgimento dos primeiros computadores IBM. As instruções lógicas desses computadores foram desenvolvidas graças a sua iniciativa pioneira.

Rapidamente, este modelo foi adotado por todos os projetistas de computadores, por ser útil para a maioria dos cálculos não numéricos.

A importância do trabalho de Samuel foi amplamente reconhecida somente após sua aposentadoria da IBM, em 1966. Isso ocorreu, em parte, porque ele não gostava das políticas necessárias para que sua pesquisa fosse seguida com mais vigor.

Ele também foi realista sobre a grande diferença entre o que foi realizado na compreensão dos mecanismos intelectuais e o que será necessário para alcançar a inteligência no nível humano.

Antes de seu trabalho de Machine Learning, Samuel era engenheiro elétrico e, simultaneamente, trabalhava na IBM como engenheiro e gerente de pesquisa em engenharia e ciência.

Entretanto, seu nome é reconhecido pelo seu pioneirismo em Machine Learning. Em 1959, o engenheiro e pesquisador introduziu o conceito na comunidade científica como “um campo de estudo que dá aos computadores a habilidade de aprender sem terem sido programados para tal”.

Contudo, foi a partir do advento da internet que o Machine Learning passou a tomar forma. Isto foi possível devido a alta quantidade de informações coletadas e armazenadas na web, uma vez que foi preciso criar meios para organizar todo este conteúdo de forma automatizada.

E claro, um dos pilares do Machine Learning é justamente a análise de dados em busca da detecção de padrões.

Como o Spotify usou machine learning para se diferenciar?

Para exemplificar o Machine Learning na prática, podemos falar um pouco sobre o algoritmo do Spotify! Já reparou como o app tem deixado de ser uma simples ferramenta de streaming e vem se tornando uma espécie de DJ pessoal?

O Spotify é um excelente exemplo do uso de Machine Learning como forma de se diferenciar no mercado, atendendo expectativas cada vez mais altas dos seus consumidores.

Playlists personalizadas, como “suas descobertas da semana”, “seu radar de novidades” e os “Daily Mixes” ajudam a personalizar a experiência de ouvir música de acordo com o que você gosta. Mas como a plataforma consegue prever o que você está querendo escutar?

Como aplicar um algoritmo de Machine Learning?

Através de técnicas de Machine Learning, é possível saber o que o usuário está ouvindo e determinar quais músicas podem ser de sua preferência.

Essa decisão pode ser tomada com base em algumas características da música, como seu tempo, gênero, intensidade e o timbre da voz de quem a canta, por exemplo.

Para simplificar o exemplo, podemos usar apenas a relação entre tempo e intensidade, onde “tempo” fica no eixo X e “intensidade”, no eixo Y.

As variações de tempo oscilam entre “calmo” e “acelerado”, enquanto as variações de intensidade oscilam entre “suave” e “crescente”.

De acordo com as preferências do ouvinte, vamos supor que ele prefere as músicas com o tempo acelerado e a intensidade crescente, enquanto tende a pular ou dar dislike em músicas com o tempo calmo e a intensidade suave.

Agora, depois de analisar as escolhas do ouvinte, já conhecemos o que ele gosta. Com o algoritmo treinado, vamos supor que o ouvinte foi exposto a uma nova música: um rock and roll!

Esta música tem o tempo acelerado e a intensidade crescente, então fica no grupo de preferências do ouvinte. Olhando para os dados pré-coletados, você consegue adivinhar se o ouvinte vai gostar da música ou não?

Exatamente: ele amou a nova música. Então, observando as escolhas passadas do ouvinte, o algoritmo foi capaz de classificar a música inédita com muita facilidade.

Entretanto, vamos expor o ouvinte a uma música neutra: nem tão suave, não crescente; nem tão calma, nem tão acelerada. Aqui é onde o algoritmo vai começar a brilhar.

Exposto a esta situação, o mecanismo de machine learning será responsável por classificar a música combinando a variação de tempo e intensidade, mesmo que mínima, com a variação entre músicas que o ouvinte gostou ou não.

Este é um mecanismo básico de Machine Learning chamado KNN – K nearest neighbors e é apenas um pequeno exemplo de um entre outros milhares de algoritmos de Machine Learning.

Mas o que acontece conforme as escolhas vão se tornando mais complicadas? O Machine Learning começa a “aprender” com os dados passados, construindo um modelo de predição e quando a nova decisão precisa ser tomada, o algoritmo consegue projetar seu aprendizado sobre ela facilmente.

Ou seja: quanto mais dados, melhor será o modelo e, consequentemente, maior será a precisão.

Machine Learning e Big Data andam de mãos dadas

O conceito de Big Data é fundamental dentro da nuvem de conhecimento sobre o Machine Learning. Como pudemos ver ao analisar a história desta tecnologia, é preciso armazenar dados que os algoritmos de Machine Learning possam “varrer” para fazer o seu trabalho.

Machine Learning da maneira mais básica é a prática de usar algoritmos para coletar dados, aprender com eles, e então fazer uma determinação ou predição sobre alguma coisa no mundo.

Então ao invés de implementar as rotinas de software, com um conjunto específico de instruções para completar uma tarefa em particular, a máquina é “treinada” usando uma quantidade grande de dados e algoritmos que dão e ela a habilidade de aprender como executar a tarefa.

Em termos práticos, a tecnologia precisa ser alimentada com um grande volume de dados. E é aqui que o termo “big data” entra na nossa história! Tecnologias como a Big Data são os responsáveis pelo acúmulo de dados.

Estas tecnologias armazenam toneladas de dados obtidos desde redes sociais, mecanismos de buscas e, até mesmo, de microfones e câmeras.

Um exemplo prático que faz parte de nosso cotidiano são as sugestões de produtos que aparecem em anúncios nas redes sociais. Para adequar os produtos anunciados às preferências do consumidor, técnicas de machine learning são usadas com base em seus hábitos e escolhas online!

Outros exemplos onde essa tecnologia já é usada com bastante eficiência são os aplicativos que exibem rotas de trânsito, como o Waze. Através de dados fornecidos pelos próprios usuários, o algoritmo do aplicativo sugere rotas alternativas mais rápidas em tempo real.

Isso mostra como algumas tecnologias,  passam a fazer parte do nosso dia a dia de forma tão silenciosa que dificilmente percebemos.

De que forma os algoritmos de Machine Learning podem ser agrupados?

Existem diversas maneiras de como uma máquina pode aprender.

Algoritmos são usados para organizar dados, reconhecer padrões e fazer com que computadores possam aprender com esses modelos e gerar insights inteligentes sem necessidade de programação prévia.

Algoritmos, por sua vez, são regras que mostram o passo-a-passo necessário para a realização de um problema. Portanto, através de uma sequência lógica, definida e finita de instruções, eles determinam o caminho a seguir para executar uma tarefa.

Em linhas gerais, costumam ser agrupados em algoritmos supervisionados, algoritmos não supervisionados e algoritmos de reforço. Entenda:

Algoritmos supervisionados

O conjunto de dados de treinamento, com entradas, bem como a saída desejada. Durante a sessão de treinamento, o modelo ajustará suas variáveis ​​para mapear as entradas para a saída correspondente.

Algoritmos não supervisionados

Nesta categoria, não há um resultado alvo. Os algoritmos agruparão o conjunto de dados para diferentes grupos.

Algoritmos de reforço

Estes algoritmos são treinados para tomar decisões. Portanto, com base nessas decisões, o algoritmo irá treinar com base no sucesso / erro de saída. Eventualmente, o algoritmo de experiência poderá dar boas previsões.

Com base nisso, podemos perceber exemplos de algoritmos, supervisionados ou não, que estão no nosso dia-a-dia e passam quase despercebidos. Veja:

  • O Facebook reconhece um amigo em uma foto com base em fotos anteriores na qual ele já foi marcado;
  • O Netflix recomenda um filme com base no que você assistiu antes;
  • O banco analisa dados para identificar transações suspeitas ou sinalizar possíveis fraudes.

Qual é a diferença entre Machine Learning e Inteligência Artificial?

O Machine Learning é um conceito associado à inteligência artificial, mas estes dois termos não significam a mesma coisa.

Na verdade, a inteligência artificial é um conceito amplo que inclui o aprendizado de máquinas como um de seus recursos. Por isso, precisamos entender o que é a inteligência artificial.

O que é inteligência artificial?

A inteligência artificial pode ser estudada dentro da ciência da computação. Seu objetivo é criar sistemas que possam funcionar de forma inteligente e independente.

Atualmente, podemos dizer que se trata de uma tecnologia que procura simular o processo humano de aprendizado e tomada de decisões.

Com base em um montante de dados, a inteligência artificial, ou IA, é capaz de fazer previsões através de Machine Learning, redes neurais e outras técnicas relacionadas.

No modelo de IA, ocorre o processamento de informações baseadas em aprendizado de experiências anteriores. Um funcionamento semelhante ao do nosso cérebro, uma vez que vamos recebendo informações e processando-as para adquirir aprendizados.

É claro que essa explicação é bastante simplista. Afinal, para que um sistema seja inteligente ele não precisa, necessariamente, ser algo próximo ao raciocínio humano. De toda forma, a lógica da comparação consiste na análise de experiências para a tomada de decisão. E a inteligência artificial segue este mesmo princípio!

Para dar autonomia a um sistema inteligente, é preciso familiarizá-lo com a atividade que ele vai executar. E é aí que entra o Machine Learning.

Da maneira com que as coisas evoluíram, uma das melhores áreas de aplicação para Machine Learning por muitos anos foi a de visão computacional, apesar de ainda requerer muito trabalho manual para completar uma tarefa.

Deep learning: outra abordagem em forma de algoritmo

Deep Learning é um subcampo de Machine Learning, uma terceira etapa da Inteligência Artificial, relacionado a algoritmos inspirados na estrutura e função do cérebro, denominados redes neurais artificiais.

Inspirados no cérebro humano, os algoritmos também aprendem quando são expostos a uma grande quantidade de dados. E assim como o cérebro humano, também se aperfeiçoam conforme executam determinada tarefa repetidamente.

As redes neurais artificiais tentam reproduzir todas as interconexões biológicas que um ser humano tem entre seus neurônios.

Entretanto, diferente de um cérebro biológico onde um neurônio pode se conectar com qualquer outro neurônio dentro de uma certa distância física, essas redes neurais artificiais possuem camadas discretas, conexões e direções de propagação de dados.

É possível, por exemplo, pegar uma imagem e cortá-la ela em uma pilha de pequenos pedaços, que são recebidos pela primeira camada da rede neural. Na primeira camada, neurônios individuais passam os dados para uma segunda camada. A segunda camada faz o seu trabalho, e assim por diante, até que a camada final produza a saída.

Cada neurônio atribui um peso para os dados que entram — o quão correto ou incorreto ele é relativo à tarefa que está sendo executada. A saída final é, então, determinada pelo total desses pesos.

Para ilustrar como esta rede funcionaria, podemos exemplificar atribuindo uma tarefa a ela. Por exemplo, se o objetivo for identificar uma placa de “pare” no trânsito como parte do desenvolvimento de um carro autônomo, atributos de uma foto de uma placa de pare são cortados e examinados pelos neurônios artificiais.

O seu formato octogonal, a sua cor vermelha, as suas letras distintas, o tamanho comum para placas de trânsito e o seu movimento (ou falta dele) serão características “ensinadas” a esta rede de neurônios.

O trabalho da rede neural será concluir se as imagens mostradas são de uma placa de pare ou não.

Ela traz um “vetor de probabilidade”, que pode ser um valor calculado a partir de diferentes pesos atribuídos a uma imagem. Em nosso exemplo, o sistema pode estar 87% confiante que a imagem é de uma placa de pare, 7% confiante que é uma placa de limite de velocidade e 5% que é uma árvore, e assim por diante — a arquitetura da rede, então, diz para a rede neural se está certo ou não.

Reconhecer imagens de gatos automaticamente do YouTube foi um dos primeiros avanços na demonstração do poder de Deep Learning.

Foi o que aconteceu no Google X: o laboratório gerenciado pelo Google em Mountain View, na California. Ao analisar 10 milhões de frames do YouTube utilizando técnicas de aprendizado profundo, o Google Brain foi capaz de identificar, sozinho, três categorias de objetos: rostos humanos, corpos humanos e… gatos!

Andrew Ng é agora o diretor do Laboratório de Inteligência Artificial da Universidade de Stanford na Califórnia, mas foi ele quem convenceu o Google a deixá-lo usar seus dados e computadores no que hoje, é chamado de Google Brain.

O Google Brain é uma rede neural com aproximadamente um milhão de neurônios simulados, e um bilhão de conexões simuladas. São mil computadores programados para absorver tanta informação quanto uma criança pequena.

A habilidade do projeto em encontrar gatos foi uma incrível demonstração de aprendizado não-supervisionado — a tarefa de aprendizado mais complicada, porque os dados de input chegam sem nenhuma informação explicativa, como nomes, títulos ou categorias.

O Deep Learning tem a propriedade de que, se você alimentar o sistema com mais dados, ele fica cada vez melhor em predizer os resultados corretamente.

Se voltarmos para nosso exemplo da placa de pare, as chances são de que enquanto a rede está sendo ajustada ou “treinada”, está produzindo respostas erradas — recorrentemente. Ela precisa de treino.

A rede precisa ver centenas de milhares, até milhões de imagens, até os pesos de cada informação recebida pelos neurônios estarem tão precisamente calibrados que conseguem responder de forma correta praticamente toda vez — com neblina ou sem neblina, com sol ou chuva.

É nesse ponto que a rede neural aprendeu como que uma placa de pare se parece; ou a rosto de sua mãe no caso do Facebook; ou um gato, que é o que Andrew Ng fez com o Google Brain.

O grande avanço de Ng foi de pegar essas redes neurais, e essencialmente fazê-las gigantes, aumentar as camadas e os neurônios, e então alimentá-las com um nível massivo de dados para que fossem treinadas.

No caso de Ng, eram imagens de 10 milhões de vídeos do YouTube. Ng colocou a palavra “deep” no Deep Learning, que descreve todas as camadas nessas redes neurais.

Hoje, reconhecimento de imagens por máquinas treinadas através de deep learning em alguns cenários possuem uma taxa de acerto maior que a de humanos, e isso varia de gatos até identificar indicadores de câncer no sangue e tumores em exames de ressonância magnética.

O AlphaGo, do Google, também aprendeu as regras do jogo e treinou para sua partida — calibrou sua rede neural — jogando contra si mesmo repetidamente.

Portanto, o Deep Learning permitiu muitas aplicações práticas de Machine Learning e ampliou o campo de inteligência artificial. O Deep Machine Learning se quebra em diversas tarefas de maneira que todo tipo de ajuda de uma máquina é possível, mesmo as mais remotas.

Carros que dirigem sozinhos, melhor saúde preventiva, mesmo recomendações melhores de filmes, todos já estão aqui ou no horizonte. A inteligência artificial é o presente e o futuro. Com a ajuda de Deep Learning, a inteligência artificial pode até chegar no estado de ficção científica que imaginamos por tanto tempo!

As principais promessas do Deep Learning

O Deep Learning está mudando a maneira como encaramos as tecnologias.

Atualmente, existe muita empolgação em relação à Inteligência Artificial (IA) e suas ramificações, como Machine Learning (ML) e Deep Learning.

Com enormes quantidades de poder computacional, as máquinas agora podem reconhecer objetos e traduzir a fala em tempo real. A inteligência artificial está, de fato, ficando inteligente.

Como você já viu, existem vários apps que usam a inteligência artificial e presentes no nosso dia a dia.

Entretanto, o Deep Learning promete causar um impacto ainda maior sobre nosso cotidiano em um futuro não tão distante assim. Nos próximos cinco a dez anos, ferramentas, bibliotecas e idiomas de desenvolvimento de Deep Learning se tornarão componentes padrão de todo kit de ferramentas de desenvolvimento de software.

Carros autônomos

As empresas que constroem esses tipos de serviços de assistência ao motorista, bem como carros autônomos, precisam ensinar o computador a assumir as principais partes (ou todas) da direção usando sistemas de sensores digitais em vez dos sentidos humanos.

Uma das principais tarefas de qualquer algoritmo de Deep Learning no carro autônomo é a renderização contínua do ambiente circundante e a previsão de possíveis alterações nesses ambientes. Essas tarefas são principalmente divididas em quatro subtarefas:

  • Detecção de objetos;
  • Identificação ou reconhecimento destes objetos;
  • Classificação de objetos;
  • Localização de objetos e previsão de movimento.

Para fazer isso, as empresas geralmente começam treinando algoritmos usando uma grande quantidade de dados.

Esses novos serviços podem fornecer modelos de negócios inesperados para as empresas.

Deep learning em saúde

Diagnóstico de câncer de mama ou de pele? Aplicativos móveis e de monitoramento? ou previsão e medicina personalizada com base em dados do Biobank?

O setor de saúde tem sido um dos primeiros a adotar e se beneficiou enormemente dos avanços tecnológicos.

Como o cientista da computação Sebastian Thrum disse ao New Yorker em um artigo recente intitulado “AI Versus MD“, assim como as máquinas tornaram os músculos humanos mil vezes mais fortes, as máquinas tornarão o cérebro humano mil vezes mais poderoso “.

A tecnologia da PathAI, por exemplo, emprega Machine Learning para ajudar patologistas a fazer diagnósticos mais rápidos e precisos, além de identificar pacientes que podem se beneficiar de novos tipos de tratamentos ou terapias.

Em 2017, a empresa levantou US $ 11 milhões adicionais em uma rodada de financiamento da Série A, que elevou seu banco total a US $ 15 milhões.

Já em Chicago, a Quantitative Insights deseja melhorar a velocidade e a precisão do diagnóstico de câncer de mama com sua estação de trabalho de ressonância magnética de mama assistida por computador Quantx.

O objetivo: melhores resultados para os pacientes através de diagnósticos aprimorados por radiologistas.

A inteligência artificial está remodelando completamente as ciências da vida, a medicina e a saúde como uma indústria. As inovações em Machine Learning estão avançando o futuro da medicina de precisão e do gerenciamento da saúde da população de maneiras inacreditáveis.

A detecção auxiliada por computador, imagens quantitativas, ferramentas de apoio à decisão e diagnóstico auxiliado por computador desempenharão um grande papel nos próximos anos.

Pesquisa por voz e assistentes ativados por voz

Uma das áreas de uso mais popular do Machine Learning é a pesquisa por voz e assistentes inteligentes ativados por voz.

Como os gigantes da tecnologia já fizeram investimentos significativos nessa área, os assistentes ativados por voz podem ser encontrados em quase todos os smartphones.

A Siri da Apple está no mercado desde outubro de 2011. O Google Now, o assistente ativado por voz para Android, foi lançado menos de um ano após o Siri.

Em média, as pessoas que usam o Siri todos os dias ou semanas fazem isso apenas para fazer três ou quatro perguntas. As perguntas que eles fazem são bastante básicas e geralmente representam pouco mais do que uma pesquisa na web ativada por voz.

Por isso, seres humanos nos bastidores são vitais para ajudar os assistentes virtuais a aprender como interagir com as pessoas como se fossem pessoas reais.

No momento, uma das principais coisas que impedem a adoção de assistentes virtuais é o desconforto do público com as máquinas de comunicação usando sua própria voz.

Alexa da Amazon está trabalhando para humanizar suas respostas adicionando ‘hmms’ e ‘ums’ em suas respostas. O assistente Siri da Apple também é conhecido por fazer piadas irônicas.

Para fazer isso, as empresas estão contratando escritores para ajudar a construir a personalidade do assistente. Usando algoritmos de aprendizado de máquina, o bot pode aprender a produzir respostas autênticas, a partir da base que o escritor cria.

O ex-roteirista de Hollywood Robyn Ewing é um dos que atualmente trabalha para formar suas personalidades. Ela observa que os usuários podem facilmente fazer tudo o que um assistente faz simplesmente acessando a Internet e obtendo as informações, embora talvez mais devagar.

É a personalidade que o diferencia e faz as pessoas quererem usar a tecnologia. Como observa Ewing, “se o personagem não lhe agrada, qual é o sentido?”

Criação de detecção do Deep Fake

Uma das aplicações avançadas de deep learning que surgiu recentemente é o Deep Fake.

O Deep Fake utiliza Deep Learning para trocar o rosto de pessoas em vídeos, com direito a sincronização de movimentos labiais, expressões e tudo o mais, em alguns casos com resultados impressionantes e bem convincentes.

Os algoritmos do Deep Fake podem criar imagens e vídeos falsos que os humanos não podem distinguir dos autênticos.

A onda de trocar rostos de pessoas em vídeos não é nova. Mas, em dezembro de 2017, um usuário do Reddit, chamado deepfakes, deu um passo além.

Com ferramentas de inteligência artificial e Machine Learning de código aberto, como Keras e TensorFlow (este último, do Google), ele criou um algoritmo para treinar uma Rede Neural a mapear o rosto de uma pessoa no corpo de outra, frame por frame.

O artifício já foi utilizado até na política. O partido belga Socialistische Partij fez um vídeo falso em que Donald Trump, presidente dos Estados Unidos, pede à população do país que votasse pela renúncia ao Acordo de Paris, um tratado que rege políticas climáticas.

Portanto, tendo em vista à privacidade, democracia e segurança nacional que o uso irresponsável desta do Deep Fake pode causar, a proposta de tecnologias que possam detectar e avaliar automaticamente a integridade da mídia visual digital é indispensável.

Tradução automática

Esta é uma tarefa em que determinadas palavras ou frases em um idioma traduzem-se automaticamente para outro idioma.

A tradução automática existe há muito tempo, mas o Deep Learning está alcançando os melhores resultados.

A tradução de texto pode ser realizada sem qualquer pré-processamento da sequência, permitindo que o algoritmo aprenda as dependências entre as palavras e seu mapeamento para um novo idioma.

Geração automática de texto

Essa é uma tarefa interessante, na qual um corpus de texto é aprendido e a partir desse modelo é gerado um novo texto, palavra por palavra ou caractere por caractere.

O modelo é capaz de aprender a soletrar, pontuar, formar sentenças e até capturar o estilo do texto no corpus. Grandes redes neurais recorrentes são usadas para aprender o relacionamento entre itens nas sequências de entrada e gerar texto.

Em 2019, o app Grammarly garantiu um aporte de 90 milhões de dólares para sua plataforma de gramática a escrita baseada em inteligência artificial.

A Grammarly encontrou um nicho adequado para os recursos do Deep Learning. E os elementos certos ajudaram a crescer de um pequeno verificador gramatical para o gerador de textos baseado em deep learning, agora avaliado em mais de US $ 1 bilhão.

Um corpus suficientemente grande de texto bem escrito pode fornecer dados de treinamento suficientes para um assistente de gramática baseado em aprendizado profundo.

O machine learning pode detectar e corrigir a maioria dos erros gramaticais, se não todos. A aplicação promete gerar as sugestões adequadas que se adaptam ao tom do texto: o e-mail perfeito, o artigo acadêmico e até a mensagem de texto divertida.

Ao contrário dos assistentes virtuais baseados em Machine Learning, a Grammarly não tem um nome humano, não tenta falar em prosa humana casual e não possui interface de voz.

Geração automática de legenda de imagem

A legenda automática de imagens é a tarefa em que, dada uma imagem, o sistema deve gerar uma legenda que descreva o conteúdo da imagem.

Em 2014, houve uma explosão de algoritmos de Machine Learning, alcançando resultados impressionantes sobre esse problema, aproveitando o trabalho dos principais modelos para classificação e detecção de objetos em fotografias.

Depois de detectar objetos nas fotografias e gerar rótulos para esses objetos, o próximo passo é transformar esses rótulos em uma descrição coerente da frase.

Geralmente, os sistemas envolvem o uso de redes neurais convolucionais muito grandes para a detecção de objetos nas fotografias e, em seguida, uma rede neural recorrente (RNN) como uma memória de curto prazo (LSTM) para transformar os rótulos em uma frase coerente.

Restauração automática de imagens

A colorização da imagem é o problema de adicionar cores às fotografias em preto e branco. O Machine Learning pode ser usado para usar os objetos e seu contexto na fotografia para colorir a imagem, da mesma forma que um operador humano pode abordar o problema.

Esse recurso aproveita as redes neurais convulsionais de alta qualidade treinadas para o ImageNet e cooptadas para o problema da colorização da imagem.

Geralmente, a abordagem envolve o uso de redes neurais e camadas supervisionadas que recriam a imagem com a adição de cores.

Jason Antic decidiu levar o estado da arte da colorização com redes neurais um passo adiante. Seu recente projeto de aprendizado profundo do DeOldify não apenas coloriza imagens, mas também as restaura, com resultados impressionantes.

Publicidade

A publicidade é outra área importante que foi transformada pelo Machine Learning. Ele foi usado por editores e anunciantes para aumentar a relevância de seus anúncios e aumentar o retorno do investimento sobre as campanhas.

Por exemplo, o aprendizado profundo torna possível que as redes de anúncios e os editores aproveitem seu conteúdo para criar publicidade preditiva orientada a dados, lances em tempo real (RTB) para seus anúncios, publicidade gráfica direcionada com precisão e muito mais.

Prever a probabilidade de conversão dos usuários por meio de algoritmos e Machine Learning é um passo importante para entregar bons resultados em uma campanha e aumentar o ROI. A maneira como esse conhecimento será adquirido, por sua vez, varia de anunciante para anunciante.

Um dos principais benefícios do Deep Learning aplicado a publicidade é que a técnica nos permite aprender não só sobre os atuais compradores, mas também sobre aqueles que nunca compraram – que não geraram conversão.

Esse é um passo fundamental para que a intuição humana definitivamente dê espaço ao embasamento estatístico na definição do potencial de compra de cada consumidor.

Graças às redes neurais, é possível obter dados mais detalhados e confiáveis sobre o potencial de compra do consumidor, tudo a partir de descrições sobre o usuário que podem ser interpretadas pela máquina, sem intervenção humana.

Aplicar o Machine Learning nas previsões de conversão, a partir de uma solução em tempo real, com dados abundantes e baseada no contexto do usuário, definitivamente permite gerar campanhas de retargeting personalizado menos invasivas, mais assertivas e poderosas.

Prevendo terremotos

Os cientistas de Harvard usaram o Machine Learning para ensinar um computador a realizar cálculos viscoelásticos.

Esses são os cálculos usados ​​nas previsões de terremotos. Até o trabalho deles, esses cálculos eram intensivos em computadores, mas essa aplicação do Machine Learning melhorava o tempo de cálculo em 50.000%.

Quando se trata de cálculo de terremotos, o tempo é importante e essa melhoria pode ser vital para salvar uma vida.

Redes neurais para detecção de câncer no cérebro

Uma equipe de pesquisadores franceses observou que é difícil detectar células cancerígenas invasivas no cérebro durante a cirurgia, em parte devido aos efeitos da iluminação nas salas de cirurgia.

Eles descobriram que o uso de redes neurais em conjunto com a espectroscopia Raman durante as operações permite que eles detectem as células cancerígenas com mais facilidade e reduzam o câncer residual pós-operação.

De fato, esta peça é uma das muitas nas últimas semanas que combinam o reconhecimento e a classificação avançados de imagens com vários tipos de câncer e aparelhos de triagem.

Redes neurais em finanças

Os mercados futuros tiveram um sucesso fenomenal desde a sua criação, tanto nos países desenvolvidos quanto nos países em desenvolvimento nas últimas quatro décadas.

Esse sucesso é atribuído à tremenda alavancagem que os futuros oferecem aos participantes do mercado. Este estudo analisa uma estratégia de negociação que se beneficia dessa alavancagem usando o CAPM (Capital Asset Pricing Model) e a relação de custo de transporte.

A equipe aplica as regras técnicas de negociação desenvolvidas a partir dos preços do mercado spot, nos preços do mercado futuro usando uma taxa de hedge baseada no CAPM.

Os preços diários históricos de vinte ações de cada um dos dez mercados (cinco mercados desenvolvidos e cinco emergentes) são usados ​​para a análise.

Previsão de Preços no Mercado de Energia

Pesquisadores da Espanha e de Portugal aplicaram redes neurais artificiais à rede de energia, em um esforço para prever as flutuações de preço e uso.

Os mercados diário e intradiário para a região são organizados em uma sessão diária em que são realizadas transações de compra e venda no dia seguinte e em seis sessões intraday que consideram a oferta e demanda de energia, que podem surgir nas horas seguintes ao cronograma diário de viabilidade fixado após a sessão diária.

Ou seja, ser capaz de fazer previsões adequadas com base nos padrões de consumo e disponibilidade gera uma eficiência e economia de custos muito mais altas.

Continue lendo:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *