Вероятностное машинное обучение, Дополнительные темы, Основания, вывод, Кэвин П.М., 2024.
Дополняя ранее изданную книгу «Вероятностное машинное обучение. Введение», этот классический труд знакомит читателя с деталями самых актуальных теорий и методов машинного обучения (МО).
В «Дополнительных темах» излагаются различные вопросы машинного обучения на более глубоком уровне. Рассмотрено обучение и тестирование при различных распределениях, порождение многомерных выходов, таких как изображения, текст и графы.
Во второй книге описано применение байесовского вывода к вероятностным моделям, начиная с основ и заканчивая алгоритмами вывода.
Издание предназначено специалистам в области МО и искусственного интеллекта, а также будет полезно студентам профильных специальностей. Предполагается, что читатель знаком с МО и другими математическими дисциплинами (теорией вероятностей, статистикой, линейной алгеброй).

Частотная статистика.
В байесовской статистике, которую мы обсуждали в разделе 3.2, параметры модели рассматриваются как любая другая неизвестная случайная величина, и для их вывода из данных применяются правила теории вероятностей. Предпринимались попытки придумать такие подходы к статистическому выводу, в которых параметры не трактовались бы как случайные величины, что позволило бы избежать использования априорных распределений и формулы Байеса. Такой альтернативный подход называется частотной статистикой, классической статистикой или ортодоксальной статистикой.
Основная идея (формализованная в разделе 3.3.1) - представить недостоверность путем вычисления того, как величина, оцененная по данным (например, параметр или предсказанная метка), стала изменяться при изменении данных. Именно эта идея вариативности при повторных испытаниях и лежит в основе моделирования недостоверности, применяемого при частотном подходе. Напротив, при байесовском подходе вероятность рассматривается в терминах информации, а не повторных испытаний. Это позволяет вычислять вероятности однократных событий, например того, что полярная шапка растает к 2030 году. Кроме того, байесовский подход дает возможность избежать некоторых парадоксов, которые преследуют частотный подход (см. раздел 3.3.5) и являются источником многих недоразумений.
ОГЛАВЛЕНИЕ.
Предисловие от издательства.
Предисловие.
Соавторы.
Прочие соавторы.
Об обложке.
Глава 1. Введение.
ЧАСТЬ I. ОСНОВАНИЯ.
Глава 2. Вероятность.
Глава 3. Статистика.
Глава 4. Графовые модели.
Глава 5. Теория информации.
Глава 6. Оптимизация.
ЧАСТЬ II. ВЫВОД.
Глава 7. Алгоритмы вывода: общий обзор.
Глава 8. Гауссова фильтрация и сглаживание.
Глава 9. Алгоритмы передачи сообщений.
Глава 10. Вариационный вывод.
Глава 11. Методы Монте-Карло.
Глава 12. Метод Монте-Карло по схеме марковской цепи.
Глава 13. Последовательный метод Монте-Карло.
Библиография.
Предметный указатель.
Купить .
Теги: учебник по информатике :: информатика :: компьютеры :: Кэвин