Pesquisadores mostram IA capaz
de aprender além dos dados de treinamento
Um estudo da USC Viterbi School
of Engineering desafia uma das ideias mais repetidas sobre inteligência
artificial: a de que um MODELO só pode ser tão BOM quanto os DADOS com que foi
TREINADO.
Os pesquisadores mostraram que,
com o método certo de FEEDBACK ESTRUTURADO, um modelo pode MELHORAR muito seu
DESEMPENHO mesmo em áreas onde quase NÃO foi TREINADO.
✅ No experimento, pesquisadores
testaram o GPT-5 em uma LINGUAGEM de PROGRAMAÇÃO extremamente RARA chamada
Idris, que possui cerca de 2 mil repositórios públicos. Para comparação, Python
tem mais de 24 milhões.
✅ Inicialmente, o modelo RESOLVEU
apenas 39% dos exercícios. A mudança veio com a criação de um “LOOP de feedback
do compilador”, onde o sistema capturava mensagens de erro do compilador,
enviava essas informações de volta para o modelo e pedia que ele CORRIGISSE o
código e TENTASSE novamente. Repetindo esse processo várias vezes, a taxa de
SUCESSO saltou para 96%.
✅ O experimento aponta que o
DESEMPENHO da IA não depende apenas dos DADOS de treinamento, mas também da
qualidade do FEEDBACK que ela recebe durante o processo de resolução de
PROBLEMAS.
Isso abre caminhos para
APLICAÇÕES em diversas áreas:
✅ ENGENHARIA e modelagem de
SISTEMAS complexos
✅
RACIOCÍNIO matemático
✅ LÓGICA
jurídica
✅
PROGRAMAÇÃO em linguagens pouco documentadas
✅
preservação e tradução de IDIOMAS com poucos dados
Em outras palavras, a IA pode
começar a APRENDER além do que foi explicitamente ENSINADA.
FUTURO DOS NEGÓCIOS