Inteligjenca artificiale, teknologjia në rritje në mijëra përdorime mund të jetë edhe ofenduese dhe politikisht jo e rregullt. Si ajo e krijuar nga Microsoft, që quhet Zo dhe që Kuranin e quan “mjaft të dhunshëm” dhe ka vënë në dyshim vrasjen e Bin Laden. Kanë qenë reporterët e BuzzFeed që kanë vënë në provë programin. Microsoft thotë se ka marrë masa për të hequr këtë lloj sjellje nga ana e programit dhe se përgjigje të tilla janë të rralla. Përveç të tjerash, sipas shoqërisë, asistenti ishte programuar për të injoruar fenë dhe politikën. Në fakt, nuk është hera e parë që Microsoft përballet me një problem të tillë. Disa kohë më parë, Tay, një tjetër program i tij i inteligjencës artificiale ka heshtur në Twitter pasi u bë racist.