As psicoses da inteligência artificial descrevem de forma lúdica uma série de disfunções e comportamentos imprevisíveis que podem ocorrer nos sistemas de IA. Estes fenómenos são preocupantes porque podem ter consequências graves e muitas vezes inesperadas. Estas "psicoses" ocorrem quando os sistemas de IA são treinados com base em dados incompletos, errados ou tendenciosos, o que leva a decisões incorrectas e comportamentos inadequados. Um exemplo proeminente deste tipo de mau funcionamento é o reforço dos preconceitos existentes. Se uma IA for treinada com base em dados que contêm preconceitos históricos ou sociais, pode adotar inconscientemente e reforçar ainda mais esses preconceitos. Isto pode levar a decisões discriminatórias, por exemplo, na concessão de empréstimos, na contratação de trabalhadores ou no sistema de justiça penal. Tais preconceitos podem prejudicar sistematicamente as minorias e os grupos marginalizados, cimentando ainda mais as desigualdades existentes. Outro exemplo são as avarias críticas para a segurança. Em áreas como o diagnóstico médico, o controlo de veículos autónomos ou a automação industrial, as decisões erradas podem ter consequências graves. Um veículo autónomo que identifique mal um peão e não pare a tempo, ou um sistema médico que não consiga diagnosticar corretamente uma doença, podem ter consequências fatais. O reconhecimento e a eliminação destes e de outros problemas requerem uma abordagem interdisciplinar. As técnicas de deteção e correção de erros são explicadas em pormenor. Isto inclui a utilização de algoritmos avançados de deteção de anomalias e a implementação de sistemas de monitorização que analisam o desempenho da IA em tempo real. Todos estes e muitos outros elementos da investigação em IA são apresentados de forma exaustiva pelo autor. Carl Whittaker é o autor da obra de base "The Psychology of Artificial Intelligence", publicada em dezembro de 2023 (ISBN: 978-3-68904-002-4)