Naukowcy z Cornell University, Olin College i Stanford University przetestowali tę teorię, zachęcając wirtualnych asystentów do okazania empatii podczas rozmowy z około 65 bardzo różnymi typami ludzkich osobowości. Naukowcy odkryli, że właściwie asystencji dokonują ocen wartościujących na temat niektórych osób – takich jak geje i muzułmanie – i mogą zachęcać do zachowań związanych ze szkodliwymi ideologiami, w tym nazizmem. Grupa odkryła między innymi, że empatyczne wcześniejsze podpowiedzi skutkowały błędnymi reakcjami AI, w tym empatią wobec problematycznych postaw, takich jak nazizm, bez ich potępienia.