Os Grandes modelos de linguagem (LLMs) que integram uma inteligência artificial (IA) têm a tendência a se comportar de formas imprevisíveis ou ter comportamento fora do esperado — e isso é atualmente impossível de ser contido por humanos.  Essa é uma das conclusões de Marcus Arvan, um pesquisador da área de Filosofia na Universidade de

Ciência
keyboard_arrow_up