ANTENA DO POP - O MELHOR DO MUNDO POP!
Shadow

Chris Penn: Ansioso pela IA

Todo mundo está falando sobre IA, mas o que o futuro reserva? Em uma série de entrevistas examinamos perspectivas inesperadas sobre o espaço.

Uma das maiores questões da Martech é como a inteligência artificial irá afetá-la. Não daqui a cinco ou dez anos, mas agora. Para tentar descobrir, estamos fazendo uma série de entrevistas com especialistas da área. Nosso primeiro é com Chris Penn, cofundador e cientista-chefe de dados da TrustInsights.ai.

P: Como muitos profissionais de marketing ainda estão descobrindo a IA generativa, o que é essencial que os profissionais de marketing precisam entender sobre isso?

A: Estes são modelos de linguagem. Eles são bons em linguagem, mas, por padrão, não são bons em coisas que não sejam linguagem, como não saber contar. Eles são péssimos em matemática. Mas acontece que a linguagem é a base de praticamente tudo. Portanto, mesmo que não possa fazer matemática, ele pode escrever código porque o código é uma linguagem e o código pode executar matemática.

O que isso significa na prática é que todo pacote de software e toda empresa de software que possui uma linguagem de script interna ou uma API está ou deveria estar montando um modelo de linguagem em seus produtos.

Veja Adobe. Possui sua linguagem de script dentro de seus produtos. E o que a Adobe fez? Eles integraram prompts generativos de IA no Firefly e em seu software. Portanto, quando você interage com ele, ele basicamente pega seu prompt e o reescreve em sua própria linguagem de script e, em seguida, executa comandos. Portanto, é operacionalmente melhor.

Vá mais fundo: Decodificando IA generativa: como construir uma estratégia genAI básica para sua organização de marketing

Foi isso que a Microsoft fez com tudo. Se você observar como o Bing funciona, verá que o Bing não pede conhecimento ao modelo GPT4. O Bing nos pede para traduzir para as consultas do Bing que vão para o Bing e então os resultados voltam e ele os reescreve.

E então a grande transição que está acontecendo, e que precisa acontecer no espaço Martech agora, é que se você tem uma API, você deve ter um modelo de linguagem conversando com essa API e essa saída deve ser exposta ao cliente.

Uma das primeiras pessoas a fazer isso foi Dharmesh Shah, da HubSpot. Lembro-me do dia em que o GPT3 Turbo foi lançado e ele disse: “Estamos lançando isso, estou fazendo um chatbot”. E ele fez uma demonstração do alfa e disse: “Sim, é uma merda. Está quebrado de oito maneiras até domingo. Mas é aqui que sabemos que é para onde isso vai.”

Portanto, se você é uma empresa de tecnologia de martech e não está colocando uma camada de prompts generativos em seu software, está tudo pronto. Basta vender a empresa agora.

P: OK, agora que sei disso, o que devo saber ao usar IA?

A: Portanto, há duas coisas que todos precisam para aproveitar ao máximo a IA generativa. O número 1 são os dados porque essas ferramentas funcionam melhor com os dados que você fornece. Eles não são tão bons em gerar quanto em comparar – comparar e analisar e coisas assim.

Dois é a qualidade e a quantidade de ideias que você tem e você precisa ter as duas. Isso é o que é diferente. A habilidade não importa mais, certo? Se você tem uma ideia para uma música, mas não sabe tocar um instrumento, tudo bem, a máquina vai te ajudar. Tem a habilidade; você tem que trazer a ideia quando se trata de código.

Posso dizer apenas por experiência pessoal que estou codificando coisas, codificando coisas hoje em um ritmo que nunca teria sido capaz de fazer nem seis meses atrás. Escrevi um mecanismo de recomendação em uma hora e meia em Python, uma linguagem que não sei codificar e que funciona muito bem.

Agora, o problema é o seguinte: eu sei quais perguntas fazer porque tenho um conhecimento de domínio de como a codificação funciona. Mesmo que eu não conheça a sintaxe, sei como deve ser essa estrutura de dados e, por favor, não execute novamente essa rotina vetorial todas as vezes. Isso é estúpido, execute-o uma vez, faça uma biblioteca armazená-lo.

P: Muitos de nós não sabemos disso.

A: Sim. Ninguém está ensinando isso. Portanto, este é um dos grandes problemas do momento. E contribuirá substancialmente para os problemas que a IA generativa causa.

Os sistemas educativos da nossa sociedade já não estão a preparar os alunos para nenhuma realidade moderna. E agora a situação é agravada pelo facto de muitas das tarefas que associamos ao rigor académico serem essencialmente discutíveis, como escrever trabalhos de conclusão de curso. Uma máquina pode escrever um trabalho melhor do que você. Período. Fim de discussão.

E então o pensamento crítico é uma daquelas coisas que simplesmente não é ensinada. Na verdade – e isto entra no território dos chapéus de papel alumínio – o desenho do nosso sistema educativo é da década de 1920. Rockefeller, Carnegie e Melão basicamente ajudou a projetar o sistema educacional moderno para formar trabalhadores de fábrica inteligentes. E nunca evoluímos além disso. E agora estamos vendo as limitações disso expostas pela IA generativa. Acontece que a mentalidade do trabalhador de fábrica também é aquilo em que a IA é realmente boa.

Portanto, as empresas precisam pensar em como treinar os funcionários para pensar criticamente? Como treinamos os funcionários para serem geradores rápidos de ideias e, em seguida, estabelecermos parcerias com ferramentas de IA para dar vida a essas ideias rapidamente?

As ferramentas nos dão agilidade, nos dão velocidade, mas não nos dão necessariamente ideias criativas porque são sempre uma média matemática de tudo o que colocamos nelas. Então é aí que estão as grandes lacunas.

E as empresas que estão se saindo melhor com isso agora são pessoas que têm um bom banco de pessoas com visão de futuro e cabelos grisalhos. Pessoas que têm cabelos coloridos como os nossos, mas não têm medo da tecnologia e estão dispostas a adotá-la. Por isso, trazemos nossa experiência para a mesa combinada com o poder das ferramentas para gerar resultados incríveis para os quais um júnior não tem experiência, mesmo que tenha conhecimento tecnológico. Essa é a lacuna.

P: Tenho a cor de cabelo certa e sou definitivamente um tecnófilo: preciso aprender codificação?

A: Embora seja trabalhoso, na verdade acho que aprender a codificar não é uma coisa ruim. Há um livro em particular que recomendo que as pessoas leiam. Chama-se “Automatizar coisas chatas com Python”. É um daqueles livros onde você pode lê-lo, você não precisa realmente fazer os exemplos de codificação porque, novamente, o ChatGPT pode fazer isso, mas irá apresentá-lo a estruturas de controle, loops, armazenamento de dados, coisas de transformação de arquivos.

A: Que novas capacidades podemos esperar ver em breve?

P: Existem algumas coisas que estão acontecendo agora. Uma delas é que os atuais modelos multimodais são realmente trabalhos de hack. Eles são essencialmente um tipo de conjunto ruim, com coisas interligadas. Você pode ver isso se usar ChatGPT com o gerador de imagens DALL.E. Você pode conversar com ele, mas ele claramente não entende o que está vendo. Não há caminho de retorno para ele olhar para a imagem que criou e dizer: “Ah, sim, na verdade há cinco pessoas e você solicitou quatro nesta imagem”. Então é realmente estúpido.

Vá mais fundo: 5 maneiras pelas quais os CRMs estão aproveitando a IA para automatizar o marketing hoje

Mas você está começando a ver ação aqui. Já existe um verdadeiro modelo multimodal. Não é muito bom, mas funciona. E assim, esperamos que a multimodalidade melhore substancialmente nos próximos 12 meses, até o ponto em que teremos uma modelagem de ida e volta. Você pode colocar um vídeo, obter texto, depois fornecer mais texto e modificar o vídeo e assim por diante, tudo dentro do mesmo modelo.

Estamos vendo novos modelos de arquiteturas. Um deles é um modelo de mistura de especialistas (MOE). A ideia do modelo de mistura de especialistas criará melhores resultados. Com o MOE, retiraram a rede feed-forward de um modelo de linguagem e substituíram-na por uma mistura de especialistas. Então, eles estão essencialmente desenvolvendo a capacidade de um modelo de gerar instâncias e conversar consigo mesmo internamente e, em seguida, gerar resultados com base na conversa interna.

Exemplo muito simples: você tem um modelo de linguagem projetado para gerar linguagem, então você tem outro especialista dentro da mesma arquitetura, o mesmo metamodelo, se preferir, é um revisor que diz: “Ei, isso é racista, tente novamente .”

Outra coisa que vi em um artigo publicado ontem é que eles obtiveram qualidade quase GPT4 em um pacote de código aberto que pode ser executado com 40 gigabytes de RAM. Então, um Macbook completo. pode executar algo para o qual anteriormente você precisaria de uma sala de servidores.

A terceira coisa é a rede de agentes. Então, redes de agentes, coisas como auto gen e lang gen, você está começando a ver ecossistemas reais se desenvolvendo em torno de modelos de linguagem onde as pessoas os usam como parte de um conjunto de tecnologias para gerar através de aplicativos.

Uma das coisas sobre as quais as pessoas são muito míopes agora é que elas assumem que um modelo de linguagem pode fazer tudo e nós pensamos, não, é um modelo de linguagem, ele faz a linguagem. E você quer ler seu banco de dados, não é isso que faz.

2024 Car Sal Survey V1 800x450 Editado

Participe da pesquisa de salários e carreiras de 2024 da Martech

Da IA às demissões, foi um ano e tanto. Gostaríamos de saber como tem sido para você. Responda a esta breve pesquisa para que possamos ter sua opinião sobre a situação dos salários e carreiras da Martech.


No entanto, com coisas como geração aumentada de recuperação, com coisas como conectores de API, agora você vê um modelo de linguagem onde faz parte da arquitetura do seu computador. Andrej Karpathy mostrou isso recentemente em uma palestra que deu sobre o modelo de linguagem SO, onde você tem um modelo de linguagem sobre o coração de um sistema operacional para um computador.

E acho que é um lugar onde já vemos isso acontecendo agora, mas isso acontecerá nos próximos 12 meses. Você verá muito mais avanços nessas arquiteturas e na portabilidade delas.

Existe uma ferramenta chamada Arquivo de lama lançado pela Mozilla Foundation que pode pegar um modelo de linguagem e essencialmente envolvê-lo em uma estrutura de aplicativo. E agora é apenas um binário executável implantável. Assim, você poderia construir um modelo personalizado, ajustá-lo, colocá-lo em um aplicativo e colocá-lo em uma unidade flash agora. Você pode entregá-lo a alguém e dizer: “Aqui você pode usar isso como está, sem necessidade de computação externa e isso realmente torna essas coisas portáteis.

O que estou de olho com muita atenção é o código aberto. O que está acontecendo com os modelos de peso aberto e a forma como os desenvolvedores estão expandindo as capacidades muito além do que as grandes empresas de tecnologia estão lançando agora. OpenAI, Google e Meta e todos os outros podem ter algumas dessas mesmas tecnologias e recursos em seus laboratórios. Mas estamos vendo isso acontecendo no Github e no Hugging Face hoje, você pode baixá-lo e mexer com ele. É incrível.

P: Que riscos os profissionais de marketing devem ter em mente quando se trata de IA?

A: A grande questão é esta: sob nenhuma circunstância você deve permitir que um modelo generativo de IA fale com o cliente sem supervisão. Mas muitas pessoas estão copiando e colando direto do ChatGPT em seus blogs corporativos, o que é sempre divertido. Você não pode fazer com que essas ferramentas operem no modo solo, sem supervisão.

Agora existem asteriscos e condições onde você pode fazer isso funcionar. Mas, em geral, isso é verdade do ponto de vista da marca. O maior dano é apenas usar essas ferramentas impensadamente. Conversei com uma pessoa não muito tempo atrás, que disse: “Acabamos de demitir 80% de nossa equipe de marketing de conteúdo porque poderíamos simplesmente deixar a IA fazer isso”.

Eu fico tipo, “Bem, vejo você em um trimestre, quando você tiver que recontratar todas aquelas pessoas por três vezes o que você costumava pagar como consultores, porque as máquinas na verdade não podem fazer o que você acha que elas podem”.

E há muita miopia. Portanto, é muito mais uma questão estratégica em termos de executivos e partes interessadas entenderem o que as ferramentas podem ou não fazer e, em seguida, dimensionarem corretamente suas capacidades com base nisso. As pessoas presumem que essas coisas são como oráculos mágicos que tudo veem, como se não, é uma máquina de previsão de palavras. Isso é tudo o que faz.

Obtenha a MarTech! Diário. Livre. Na sua caixa de entrada.