
Мы сравним сумму квадратов отклонений (SSD) и сумму абсолютных отклонений (SAD), обучим линейную регрессию с каждой из них и визуально оценим разницу.
📊 Посмотрим, как именно разные функции затрат влияют на:
Точность аппроксимации данных,
Устойчивость к выбросам,
Выводы, которые мы делаем из модели.
🔧 Используем Python, JupyterLab и минималистичный open-source инструментарий — идеально подходит для слабых машин и начинающих ML-энтузиастов.
🧠 Эта тема — основа понимания, как «думает» модель при обучении.
👨💻 Подходит для: начинающих и продолжающих, кто осваивает машинное обучение на практике.