Uma versão mais avançada vai ser lançada pela OpenAI e promete tornar-se cada vez mais acessível. A nova versão consegue analizar imagens e áudios de forma mais eficaz do que as anteriores.
A apresentação do iPhone 4 tornou-se infame na Apple já que, durante a sua apresentação, Steve Jobs teve dificuldades em mostrar como funcionava o browserdeste telemóvel. Quando se faz uma apresentação que será vista por milhões e milhões de pessoas, as empresas tentam sempre controlar ao máximo o que vão mostrar de forma a que não aconteçam incidentes que possam prejudicar a marca, ao mesmo tempo que tentam mostrar inovação e as características mais interessantes dos seus produtos. Uma situação semelhante aconteceu na semana passada durante a apresentação do novo ChatGPT: em pelo menos duas situações a inteligência artificial mostrou o quão falível ainda é. Mas mesmo por entre as falhas, a nova versão do ChatGPT promete grandes avanços aos seus utilizadores.
REUTERS/Dado Ruvic/Illustration/File Photo
A OpenAI parece continuar a liderar a corrida no que diz respeito à inteligência artificial (IA). A empresa responsável pelo ChatGPT lançou uma nova versão do seu programa. É mais rápido, com maior capacidade de processamento e produção de texto e consegue até já processar dados visuais. A nova versão continua gratuita e chama-se GPT-4o.
A mais recente versão dolarge language model(LLM) da OpenAI é capaz de oferecer respostas de uma forma mais célere e mais completa do que os seus predecessores, incluindo aqueles que faziam parte do serviço pago, como o GPT-4. O GPT-4o é capaz de processar conteúdo a partir de texto, imagens e áudio e gerar resultados em linguagem e voz mais "corrente", tornando-se menos óbvio que as respostas foram criadas por um modelo de inteligência artificial e não por um humano, refere a OpenAI emcomunicado.
"O GPT-4o é um passo em direção a uma interação humano-computador muito mais natural. Ele aceita como entrada qualquer combinação de texto, áudio e imagem e gera qualquer combinação de saídas de texto, áudio e imagem. Pode responder a entradas de áudio em apenas 232 milissegundos, com uma média de 320 milissegundos, o que é o semelhante ao tempo de resposta humano numa conversa",lê-se ainda no comunicado.
Durante a apresentação deste novo modelo, numa cerimónia conduzida por Mira Murati, a diretora tecnológica da OpenAI, e que decorreu nos escritórios da empresa em São Francisco, nos Estados Unidos, Mark Chen, investigador da Open AI, pediu conselhos ao ChatGPT para conseguir falar com menos constrangimentos durante aquela apresentação. Como parte do teatro, o investigador fingiu até estar a hiperventilar, ao que o robô respondeu, em tom de graça, que Chen não era um aspirador para fazer aquele barulho.
Durante o exercício, Chen pediu ao modelo que contasse uma história ao público, com diferentes níveis de dramatismo na voz, missão cumprida pelo programa, apresentando tanto uma voz mais "mecanizada" e que associamos a um robô e depois de uma forma mais "humana". Houve um momento em que o investigador interrompeu momentaneamente o ChatGPT e este "calou-se", mostrando que começa a ser capaz de interpretar e processar interrupções e outros momentos que existem em diálogos.
Mas não é só informação áudio e textual que o programa consegue interpretar. A OpenAi escreveu código para que o programa consiga, através da câmara do telefone ou do computador, analisar o ambiente à frente da lente e processar o que lhe é exposto, incluindo resolver uma equação matemática que lhe seja mostrada. Foi aqui que a apresentação começou a correr menos bem. Instada - o programa utilizava uma voz feminina com um sotaque norte-americano - a analisar uma fotografia de um homem a sorrir para dizer o que via, o programa confundiu a pessoa com um bocado de madeira. E resolveu até uma equação que não lhe foi apresentada, mostrando que estes modelos continuam a ter várias falhas de interpretação.
Outra habilidade que o ChatGPT demonstrou foi a de conseguir fazer tradução (neste caso de italiano para inglês e vice-versa), ferramenta que já possuía mas que, segundo a OpenAi, foi imensamente melhorada nesta nova versão.
Utilização generalizada
"Uma parte muito importante da nossa missão passa por fazer com que as nossas ferramentas avançadas de IA estejam disponíveis para todos", referiu Murati, explicando que ao contrário do que acontece com o GPT-4, que está disponível apenas para os utilizadores com subscrição, o GPT-4o ficará disponível gratuitamente. Atualmente, quem usa o ChatGPT sem uma subscrição está limitado ao modelo GPT-3.5, que tem capacidades mais limitadas.
Apesar desta liberalização dos serviços, quem compra uma subscrição do ChatGPT vai continuar a ter benesses como limites de interações cinco vezes maiores e acesso antecipado a novas funcionalidades no serviço, tranquilizou a empresa.
Neste passo em busca de uma maior acessibilidade e consequente maior utilização, a empresa anunciou ainda que vai lançar uma aplicação que pode vir a ser usada no computador, deixando de ser necessário recorrer a um site para utilizar a ferramenta.
Anteriormente já era possível falar com o ChatGPT através de áudio, mas para isso era preciso transcrever o áudio para texto. Depois o GPT-3.5 ou o GPT-4 interpretava o conteúdo e criava uma resposta. Por fim, o material era convertido em áudio. Segundo a OpenAI, este processo fazia com que houvesse perda de muita informação e não era possível analisar "o tom, ruídos de fundo, produzir risadas, cantar ou expressar emoções".
Para poder adicionar esta notícia aos seus favoritos deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.
Para poder votar newste inquérito deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.
Brigitte e Emmanuel nada têm a ganhar com este processo que empestará ainda mais a atmosfera tóxica que rodeia o presidente, condenado às agruras políticas de um deplorável fim de mandato
Esta ignorância velha e arrastada é o estado a que chegámos, mas agora encontrou um escape. É preciso que a concorrência comece a saber mais qualquer coisa, ou acabamos todos cidadãos perdidos num qualquer festival de hambúrgueres