Для установки нажмите кнопочку Установить расширение. И это всё.

Исходный код расширения WIKI 2 регулярно проверяется специалистами Mozilla Foundation, Google и Apple. Вы также можете это сделать в любой момент.

4,5
Келли Слэйтон
Мои поздравления с отличным проектом... что за великолепная идея!
Александр Григорьевский
Я использую WIKI 2 каждый день
и почти забыл как выглядит оригинальная Википедия.
Статистика
На русском, статей
Улучшено за 24 ч.
Добавлено за 24 ч.
Что мы делаем. Каждая страница проходит через несколько сотен совершенствующих техник. Совершенно та же Википедия. Только лучше.
.
Лео
Ньютон
Яркие
Мягкие

Вероятно приближённо корректное обучение

Из Википедии — свободной энциклопедии

Вероятно приближённо корректное обучение (ВПК-обучение, англ. Probably Approximately Correct learning, PAC learning) — схема машинного обучения, использующая понятия асимптотической достоверности и вычислительной сложности. Предложена в 1984 году Лесли Вэлиантом[1].

В этой схеме учитель получает выборки и должен выбрать обобщающую функцию (называемую гипотезой) из определённого класса возможных функций. Целью является функция, которая с большой вероятностью (откуда «вероятно» в названии) будет иметь низкую ошибку обобщения[en] (откуда «приближенно корректное» в названии). Учитель должен быть способен обучить концепт[2], дающее произвольный коэффициент аппроксимации, вероятность успеха или распределения выборок.

Модель была позднее расширена для обработки шума (некорректно классифицируемых выборок).

Важным нововведением схемы ВПК является использование понятия о вычислительной сложности машинного обучения. В частности, ожидается, что учитель находит эффективные функции (которые ограничены по времени выполнения и требуемому пространству многочленом от размера выборки), и учитель должен реализовать эффективную процедуру (запрашивая размер примера, ограниченный многочленом от размера концепта, модифицированного границами приближения и правдоподобия).

Определения и терминология

Для формального определения используется некоторое заданное множество , называемое признаковым пространством или кодировкой всех выборок. Например, в задаче оптического распознавания символов признаковым пространством является , а в задаче нахождения интервала (корректно классифицирующей точки внутри интервала как положительные и вне интервала как отрицательные) признаковым пространством является множество всех ограниченных интервалов в .

Ещё одно понятие, используемое в схеме — концепт — подмножество . Например, множество всех последовательностей бит в , которые кодируют рисунок буквы «P» является одним из концептов в задаче оптического распознавание символов. Примером концепта для задачи нахождения интервала служит множество открытых интервалов , каждый из которых содержит только положительные точки. Класс концептов[en]  — множество концептов над . Это может быть множество всех подмножеств каркасного[en] 4-связного[en] массива бит (ширина шрифта равна 1).

Пусть будет процедурой, которая формирует пример с помощью вероятностного распределения и даёт правильную метку , которая равна 1, если и 0 в противном случае. Теперь, если дано , предположим, что есть алгоритм и многочлен от (и другие относящиеся к делу параметры класса ) такие, что, если дана выборка размера , нарисованный согласно , то с вероятностью по меньшей мере выход алгоритма является гипотеза , которая имеет среднюю ошибку, меньшую или равную на для одного и того же распределения . Далее, если утверждение выше для алгоритма верно для любого концепта и для любого распределения над и для всех , тогда является (эффективно) ВПК-обучаемым (или свободным от распределения ВПК-обучаемым). В этом случае считается, что является алгоритмом ВПК-обучения для .

Эквивалентность

При определённых условиях регулярности эти три условия эквивалентны:

  1. Класс понятий является ВПК-обучаемым.
  2. Размерность Вапника — Червоненкиса класса конечна.
  3. является однородным классом Гливенко — Кантелли.

См. также

  • Отказоустойчивость (ВПК-обучение)[en]
  • Сложность выборки[en]

Примечания

  1. Valiant1984.
  2. Концептами называют собственные подмножества множества допустимых признаков.

Литература

Эта страница в последний раз была отредактирована 25 сентября 2023 в 07:33.
Как только страница обновилась в Википедии она обновляется в Вики 2.
Обычно почти сразу, изредка в течении часа.
Основа этой страницы находится в Википедии. Текст доступен по лицензии CC BY-SA 3.0 Unported License. Нетекстовые медиаданные доступны под собственными лицензиями. Wikipedia® — зарегистрированный товарный знак организации Wikimedia Foundation, Inc. WIKI 2 является независимой компанией и не аффилирована с Фондом Викимедиа (Wikimedia Foundation).