Наука о представлении данных – обзор и новые перспективы

Наука о представлении данных – обзор и новые перспективы

(Representation Learning: A Review and New

Perspectives)

Yoshua Bengio, Aaron Courville, and Pascal Vincent

Department of computer science and operations research, U. Montreal

also, Canadian Institute for Advanced Research (CIFAR)

Оригинальная статья, по которой делался перевод, доступна по сылке http://arxiv.org/pdf/1206.5538.pdf

Более новые версии могут быть найдены по ссылке http://arxiv.org/abs/1206.5538

От переводчика

Трудность перевода этого документа началась уже с заголовка – в оригинале он звучит как Representation Learning: A Review and New Perspectives, где трудность представляет термин Representation Learning. Дословно его можно перевести как Обучение представлениям, или Обучение представлений, что на русском выглядит полной белибердой. В контексте тематики статьи его можно расширить до «Машинное обучение представлений данных», что несколько улучшает понимание, но не сильно. Дело в том, что в сообществе англоязычных инженеров по машинному обучению термин настолько устоялся, что понимается сам собой, а подобранные английские слова очень точно передают его суть: Representation Learning – это область науки о машинном обучении на базе определенного представления (кодирования, хранения) данных для выделения определенных признаков. Поэтому также термину Representation Learning часто ставят в синонимы второй термин – Feature learning – машинное обучение, направленное на выделение нужных признаков из данных. Причем со вторым термином дела не лучше, так как русское слово «признак» тоже не настолько меткое в этом контексте, как feature, и требует поясняющих синонимов, таких как «особенность», «метка», из-за чего даже простая калька с английского «выделение фичей» начинает звучать понятнее. В тексте статьи часто встречается Representation Learning, но в разных пониманиях – иногда в понимании «область науки», иногда смысловое ударение идет именно на «обучение», а иногда на «представление данных». Поэтому, с вашего позволения (или не позволения) я буду этот термин переводить «по месту», преобразуя его в ту или иную форму, которая ближе к контексту. В целом я старался подыскивать русскоязычные термины, чтобы перевод не превратился совсем уж в «Бенчмарк репрезентационного тренинга фич ансупервайзерного автоэнкодера и манифолд лёнинга».

Ну и самое главное. Я понял из оригинала всего лишь около 60% информации, а потому сам бы назвал получившийся у меня перевод безапелляционно отвратительным. Непонятые части статьи скорее всего переведены мной неправильно, так как само построение предложений в оригинальном тексте для меня достаточно сложное, а термины по большей части незнакомые. Но так как перевод делался в первую очередь «для себя», то уж как есть, прошу прощения. Надеюсь, данный перевод сгодится хотя бы как приманка для поисковиков, чтобы читатели могли найти русскоязычные названия интересующих понятий, с тем чтобы далее перейти на более подробную литературу по этому вопросу в ссылках на англоязычные источники. Места перевода, которые вызвали у меня наибольшие затруднения, выделены желтым цветом.

М.М.Лашкевич

maxsoftpage@yandex.ru

Аннотация

Успех алгоритмов машинного обучения главным образом зависит отпредставления данных, и мы предполагаем, что разные представления данных могут одни сильнее, другие слабее запутывать и скрывать те или иные первопричины и факторы изменчивости, лежащие в основе данных. Хотя и специфические знания о конкретной предметной области могут быть использованы в качестве помощи в построении удобного представления данных, машинное обучение «в общем виде» также активно применяется, и задача для исследователей искусственного интеллекта создать мощные алгоритмы обучения и представления данных, чтобы реализовать такое обучение «в общем виде». Этот документ является обзором на последние работы в таких областях, как обучение выделению признаков без учителя (unsupervised feature learning), глубокое обучение (deep learning), охватывает достижения вероятностных моделей (probabilistic models), автокодировщиков (auto-encoders), обучение на базе многообразий (manifold learning) и глубокие нейросети (deep networks). Данная работа освещает традиционные нерешенные вопросы об обеспечении качественного машинного обучения на базе определенных представлений данных, о вычислении представлений данных (так называемый вероятностный вывод) и геометрической взаимосвязи между обучением представлений данных, оценкой плотности данных и обучением на базе многообразий.

Ключевые слова: Глубокое обучение, машинное обучение, представление данных, обучение признакам, обучение без учителя, машина Больцмана, автокодировщик, нейронный сети.

Читать или скачать полную версию статьи в формате PDF

Добавить комментарий

Ваш адрес email не будет опубликован.

закрыть

Поделиться

Отправить на почту
закрыть

Вход

закрыть

Регистрация

+ =