Если такая неясность, то какой смысл рисковать? Развивать ИИ имеет смысл если присутствует полный контроль над ним. Эксперименты с созданием сильного ИИ, обладающего самосознанием, возможностью понимания и/или выбора - должны быть только при условии отрезанности экспериментального образца от интернета и при отсутствии его контроля над аппаратными средствами (я имею в виду роботов, а не просто компьютер, на котором он запущен). Я прав?