Este artigo foi desenvolvido com uso parcial de uma IA generativa.
- Principal referência para o conteúdo de hoje é o vídeo do Fábio Akita
O que é Inteligência Artificial?
- Simulação de inteligência humana: A Inteligência Artificial (IA) é um ramo da ciência da computação que se concentra em criar sistemas capazes de realizar tarefas que exigem inteligência humana. Isso pode incluir coisas como aprendizado e adaptação, raciocínio e resolução de problemas, percepção (como visão ou reconhecimento de fala) e a capacidade de manipular objetos.
- Os subcampos da inteligencia artificial:
- Aprendizado de Máquina (Machine Learning, ML)
- Aprendizado Profundo (Deep Learning, DL)
- Processamento de Linguagem Natural (NLP) ← ChatGPTs da vida, a partir daqui todo chatbot será chamado neste documento de IA generativa ou IA
<aside>
⚠️ A Inteligência Artificial (IA) e o Aprendizado de Máquina (Machine Learning, ML) são termos frequentemente usados de forma intercambiável, mas é importante entender que eles não são a mesma coisa. O Aprendizado de Máquina é, na verdade, um subcampo da IA. Enquanto a IA é um campo amplo que engloba todas as técnicas usadas para simular a inteligência humana, o Aprendizado de Máquina é uma abordagem específica que envolve o desenvolvimento de sistemas que podem aprender e melhorar a partir dos dados, sem serem explicitamente programados para fazê-lo. Existem muitos mal-entendidos sobre essa distinção, mas é essencial para entender o panorama completo da IA e como as diferentes técnicas e metodologias se encaixam nesse campo.
</aside>
Porém, quando estamos nos referindo às IAs generativas, nós tendemos a acreditar, pela essência da ferramenta, que elas são mágica, que parece realmente que essas máquinas como ChatGPT, Bard ou Bing estão realmente entendendo como humanos nossas solicitações, pensando, estruturando soluções e, ao final, nos auxiliando com nossas tarefas.
Essa interpretação está completamente errada. A realidade é a seguinte:
- IAs generativas são como um corretor avançado: no vídeo citado no começo do texto Fábio Akita compara os modelos de linguagem transformacional (NLPs), uma forma de IA, a um corretor de teclado de celular altamente avançado. Eles são capazes de produzir respostas plausíveis com base no contexto dado, mas que não possuem uma verdadeira compreensão ou consciência.
- Sem inteligência cognitiva: Akita enfatiza que nenhuma IA generativa possui inteligência cognitiva. Não entende por que duas coisas são como são. Em vez disso, reconhece padrões e reproduz respostas com base nesses padrões.
- Limitado/enviesada pelo treinamento: Uma IA generativa é limitada pelo que foi exposta durante o treinamento. Não pode gerar texto sobre tópicos que nunca viu e, na maioria das vezes, não pode fornecer respostas coerentes para textos muito longos.
-
Pergunta ao ChatGPT: Quando falamos que uma IA generativa é limitada pelo treinamento também podemos concluir que ela é enviesada pelo treinamento, certo? Caso os treinadores de uma determinada IA incluam informações enviesadas e/ou incorretas isso refletiria na forma que essa IA nos responde, comprometendo sua confiabilidade, estou correto?
- Resposta: Sim, você está absolutamente correto. Os modelos de aprendizado de máquina, incluindo os modelos de linguagem transformacional usados no NLP, são fortemente influenciados pelos dados nos quais são treinados. Se os dados de treinamento contêm vieses ou informações incorretas, o modelo provavelmente irá refletir esses vieses e erros em suas previsões ou gerações.
Isso é conhecido como viés de treinamento e é uma preocupação significativa na IA e no aprendizado de máquina. Os vieses nos dados de treinamento podem surgir por várias razões, incluindo vieses na coleta de dados, vieses nos rótulos dos dados e vieses nos dados disponíveis.
Por exemplo, se um modelo de linguagem for treinado em textos da internet, ele pode aprender e perpetuar vieses de gênero, raciais e outros presentes nesses textos. Isso pode levar o modelo a produzir respostas enviesadas ou ofensivas.
A indústria está ciente desses problemas e está trabalhando em várias estratégias para mitigar o viés em modelos de IA, incluindo técnicas de pré-processamento de dados, pós-processamento de modelo e treinamento de modelos de aprendizado de máquina mais justos. No entanto, é um problema complexo e em andamento.
Por que não devemos nos desesperar com AIs/NLPs e cuidar para não termos Fear of Missing Out?
IA generativa como Ferramenta, Não como Substituta:
- As IAs devem ser vistas como uma ferramenta que pode nos auxiliar e não como uma substituição para o nosso trabalho.
Evitando o Hype da IA:
- É importante não cair no hype em torno das IAs generativas. Enquanto elas tem aplicações úteis e impressionantes, há também muita desinformação e exagero sobre o que ele realmente pode e não pode fazer.
- Em particular, o FOMO (Fear of Missing Out) pode levar a decisões precipitadas ou mal informadas. É importante fazer uma avaliação cuidadosa e informada antes de adotar novas tecnologias.
Educação Continuada:
- Em vez de temer a IA, é mais produtivo aprender sobre ela e entender como ela pode ser usada de maneira eficaz em seu campo.