Несмотря на то, что Джеймс Кэмерон считает искусственный интеллект полезным в производстве фильмов, режиссер "Терминатора" уверен, что ИИ и гонка вооружений - опасное сочетание, и что показанные в фильмах франшизы катастрофы могут стать реальностью, если искусственный интеллект попадет не в те руки.
"Я не сомневаюсь в существовании угрозы апокалипсиса в стиле "Терминатора" в случае объединения искусственного интеллекта с системами вооружения, вплоть до систем ядерного оружия, систем ядерной обороны, контрударов и тому подобного, - высказал свои опасения Джеймс Кэмерон в интервью, в котором он обсуждал предстоящую экранизацию книги "Призраки Хиросимы" Чарльза Пеллегрино. - Все это очень серьезно. В связи с тем, что театр военных действий развивается настолько быстро, а временные рамки для принятия решений настолько сжаты, для их обработки потребуется сверхинтеллект. Возможно, у нас хватит ума и мы оставим человека в цепи принятия решений. Но люди не безупречны, и было допущено множество ошибок, которые ставили нас на грань международных инцидентов, способных привести к ядерной войне. Так что я не знаю".
Джеймс Кэмерон назвал три главные, на его взгляд, угрозы существованию человечества на данном этапе его развития: "климат и общая деградация окружающей среды, ядерное оружие и сверхразум". "Есть ощущение, что все они проявляются и достигают своего пика одновременно. Возможно, ответом будет сверхинтеллект. Я не знаю. Я этого не предсказываю, но, возможно, так оно и есть".