ИИ тоже может использовать баги.
Проблема в том что ИИ один раз что-то попробовал а потом абузит это. Не учится новому решению поставленной задачи.
В общем случае это неправда. Если в ИИ встроено "исследовательского поведение", то он будет с некоторой вероятнстью выбирать и пробовать другие действия, чтобы случайно не зависнуть в локальном максимуме.
Проблема в том что ИИ один раз что-то попробовал а потом абузит это. Не учится новому решению поставленной задачи.
В общем случае это неправда. Если в ИИ встроено "исследовательского поведение", то он будет с некоторой вероятнстью выбирать и пробовать другие действия, чтобы случайно не зависнуть в локальном максимуме.