A OpenAI está financiando pesquisas acadêmicas sobre algoritmos capazes de fazer previsões sobre julgamentos morais. Um porta-voz da desenvolvedora do ChatGPT disse ao TechCrunch que houve um financiamento de US$ 1 milhão de duração de três anos para professores de um centro da Universide que estudam moralidade e inteligência artificial.
A OpenAI apontou para um press release da própria universidade, no qual há mais explicações sobre o projeto. De acordo com Walter Sinnott-Armstrong, professor de ética prática da Duke, foram feitos diversos estudos e produziu-se um livro sobre o potencial da inteligência artificial para servir como um “GPS moral” com o objetivo de ajudar os humanos a fazerem julgamentos melhores.
Foi desenvolvido um algoritmo “moralmente alinhado” que auxilia na decisão de quem receberá a doação de rins e estudou-se em que situações as pessoas prefeririam que a IA tomasse decisões morais.
O objetivo do trabalho financiado pela OpenAI basicamente é treinar algoritmos para “prever julgamentos morais” de humanos em cenários conflituosos “entre características moralmente relevantes na medicina, direito e negócios”.
Basicamente, o desafio a ser enfrentado pelo grupo de pesquisadores financiados pela OpenAi são os pesos de parâmetros aprendidos pela inteligência artificial. Enquanto a IA “Claude” favorece o Kantismo, concentrando-se em regras morais absolutas, o ChatGPT pende para o utilitarismo, priorizando o bem maior para o maior número de pessoas. Dependendo da pessoa, ela pode achar que um pensamento é superior ao outro, mas a preferência pode variar muito.
Ao fim, o algoritmo da IA terá de levar muitos pensamentos em consideração para conseguir determinar uma decisão mais moral para determinado indivíduo. Inclusive, é provável que a inteligência artificial tenha que analisar primeiro a pessoa, através de uma entrevista, antes de responder a questões morais complexas.
Confira um vídeo sobre o projeto: