Glossário de IA

RLHF (Reinforcement Learning from Human Feedback)

Definição

Um método para treinar um modelo de IA aprendendo a partir de feedback dado por humanos sobre as saídas do modelo.

Anterior

Reinforcement Learning

Ver Todos os Termos

Próximo

Singularity

Quer Implementar IA no Seu Negócio?

Nossa equipe especializada pode ajudar sua empresa a transformar conceitos de IA em soluções práticas e rentáveis.