Обучение с частичным привлечением учителя — различия между версиями
Romanosov (обсуждение | вклад) (initial) |
Romanosov (обсуждение | вклад) (Вводные разделы + план) |
||
| Строка 1: | Строка 1: | ||
| + | == Понятие машинного обучения в искусственном интеллекте == | ||
| + | |||
| + | {{Определение | ||
| + | |definition= | ||
'''Обучение с частичным привлечением учителя''' (англ. semi-supervised learning) {{---}} разновидность обучения с учителем, которое также использует неразмеченные данные для тренировки {{---}} обычно небольшое количество размеченных данных и большое количество неразмеченных данных. | '''Обучение с частичным привлечением учителя''' (англ. semi-supervised learning) {{---}} разновидность обучения с учителем, которое также использует неразмеченные данные для тренировки {{---}} обычно небольшое количество размеченных данных и большое количество неразмеченных данных. | ||
| + | }} | ||
| + | == Основная идея == | ||
| + | |||
| + | Обучение с частичным привлечением учителя занимает промежуточное положение между обучением с учителем и без учителя. Когда получение достаточного количества размеченных данных затруднено (например, когда при разметке данных используются дорогостоящие устройства или специально обученные люди), помимо размеченных данных можно также задействовать и неразмеченные данные для построения более эффективных моделей, по-сравнению с моделями, построенными с полным участием учителя или без него вовсе. | ||
| + | |||
| + | == Постановка задачи обучения == | ||
| + | |||
| + | '''Дано''' <br /> | ||
| + | * Множество данных $X = \{x_1, x_2, ... , x_m\}$ и множество меток $Y = \{y_1, y_2, ... , y_m\}$ | ||
| + | * Размеченные данные вида $(X_l, Y_l) = \{(x_{1:l}, y_{1:l})\}$ | ||
| + | * Множество неразмеченных данных $X_u = \{x_{l+1:n}\}$, используемых в обучении | ||
| + | * Как правило, $l \ll n$ | ||
| + | * Множество неразмеченных данных $X_{test} = \{x_{n+1:m}\}$, не используемых в обучении (тестовая выборка) | ||
| + | |||
| + | '''Найти''' <br /> | ||
| + | * Найти решающую функцию $a: X → Y$, где при нахождении функции подразумевается применение как $(X_l, Y_l)$, так и $X_u$. | ||
| + | |||
| + | == Подходы к решению задачи == | ||
| + | |||
| + | === Самообучение === | ||
| + | === Генеративные модели === | ||
| + | === Полуавтоматические SVM === | ||
| + | === Алгоритмы на основе графов === | ||
| + | === Multiview Learning === | ||
| + | |||
| + | == Применение == | ||
| + | |||
| + | == См. также == | ||
| + | |||
| + | == Примечания == | ||
| + | |||
| + | == Источники информации == | ||
Версия 01:33, 13 февраля 2019
Содержание
Понятие машинного обучения в искусственном интеллекте
| Определение: |
| Обучение с частичным привлечением учителя (англ. semi-supervised learning) — разновидность обучения с учителем, которое также использует неразмеченные данные для тренировки — обычно небольшое количество размеченных данных и большое количество неразмеченных данных. |
Основная идея
Обучение с частичным привлечением учителя занимает промежуточное положение между обучением с учителем и без учителя. Когда получение достаточного количества размеченных данных затруднено (например, когда при разметке данных используются дорогостоящие устройства или специально обученные люди), помимо размеченных данных можно также задействовать и неразмеченные данные для построения более эффективных моделей, по-сравнению с моделями, построенными с полным участием учителя или без него вовсе.
Постановка задачи обучения
Дано
- Множество данных $X = \{x_1, x_2, ... , x_m\}$ и множество меток $Y = \{y_1, y_2, ... , y_m\}$
- Размеченные данные вида $(X_l, Y_l) = \{(x_{1:l}, y_{1:l})\}$
- Множество неразмеченных данных $X_u = \{x_{l+1:n}\}$, используемых в обучении
- Как правило, $l \ll n$
- Множество неразмеченных данных $X_{test} = \{x_{n+1:m}\}$, не используемых в обучении (тестовая выборка)
Найти
- Найти решающую функцию $a: X → Y$, где при нахождении функции подразумевается применение как $(X_l, Y_l)$, так и $X_u$.