С правилами, встроенными в ИИ, чтобы гарантировать, что он никогда не причинит вреда человеку... смогут ли люди однажды взломать его и заставить игнорировать эти правила?