Skip links

Robotter læser bøger for at blive som mennesker

Research: Forskere i kunstig intelligens lader robotter læse bøger, så robotterne kan forstå, hvordan de skal opføre sig på en menneskelig måde. Forskerne underviser computerne i at være mennesker på samme måde som børn opdrages til opføre sig i menneskelige samfund. 

abitofcs4fnorg
abitofcs4f.org

“Historier fra forskellige kulturer lærer børn, hvordan man opfører sig acceptabelt i samfundet med eksempler på gode og dårlig opførsel,” forklarer associate professor Mark Riedl, og chef for Entertainment Intelligence Lab i en pressemeddelse. “Vi tror på, at disse historier i robotterne kan fjerne psykotisk-lignende adfærd i robotter og forbedre deres valg, som ikke ødelægger det for mennesker men som stadig lever op til formålet.”

Resumeet af den videnskabelige artikel lyder således: Value alignment is a property of an intelligent agent indicating that it can only pursue goals that are beneficial to humans. Successful value alignment should ensure that an artificial general intelligence cannot intentionally or unintentionally perform behaviors that adversely affect humans. This is problematic in practice since it is difficult to exhaustively enumerated by human programmers. In order for successful value alignment, we argue that values should be learned. In this paper, we hypothesize that an artificial intelligence that can read and understand stories can learn the values tacitly held by the culture from which the stories originate. We describe preliminary work on using stories to generate a value-aligned reward signal for reinforcement learning agents that prevents psychotic-appearing behavior.