Июл 01, 2016 - 0 Comments - Без рубрики -

AI & ML дайджест #1: Соревнования от OpenAI, предсказание звука по видео, “бесконечные” нейронные сети

В этом выпуске: интервью с представителем Яндекса о распознаванию речи, предсказание звука материала на основе «немого» видео, туториалы по character-level deep learning и API для построению нейронных сетей под iOS, обзоры генеративных моделей, прогнозирование финансовых временных рядов, «бесконечные» нейронные сети и многое другое.

Статьи, новости, интервью

Мегаинтереснейший проект по предсказанию звука, который издает материал при ударе по нему.

Новая красивая визуализация работы и активаций внутри рекуррентных нейронных сетей прямиком из Гарварда — LSTMVis.

Facebook рассказывает про свой инструмент для понимания текстов.

Предложение от OpenAI поработать над интересными задачами (в основном reinforcement learning) — есть площадка для публикации результатов как на Kaggle.

Интервью с руководителем отдела по речевым технологиям Яндекса о распознавании и синтезе речи, биометрии и будущем.

Нейронные сети делают предсказания на EURO-2016.

Профессор Уэльского университета опровергает теорию о том, что существует «языковой инстинкт».

DeepMind тоже в своем блоге пишет о последних результатах в Reinforcement Learning.

Что можно делать год на позиции Data Scientist в StackOverflow.

Как deep learning будет заботиться о природе, сохраняя кораловые рифы.

Программирование

Реализация разных архитектур нейронных сетей для прогнозирования финансовых временных рядов на Keras.

Туториал по интеграции Torch и OpenCV.

Туториал по data augmentation и fine-tuning в блоге Keras.

Инструмент от Facebook для обучения игры в Go, на Torch.

Построение нейронных сетей на Swift.

Magenta от Google Brain для создания своих аудио шедевров.

Про character-level deep learning, и почему по буквам «читать» лучше, чем по словам.

Теория: популярно

Сравнение архитектур сверточных нейронных сетей: от LeNet до ResNet.

Сравнительный пост генеративных моделей от OpenAI.

Переход нейронных сетей от «черных ящиков» до вероятностных моделей.

Доступное описание Inception-ResNet на Хабрахабре.

Веселый ресерч о рекомендации эмоджи к сообщению.

Краткий обзор методов unsupervised learning (все bleeding edge!).

Теория: научно

Учим градиентный спуск градиентным спуском.

Обучение «бесконечнослойных» нейронных сетей (точнее, «бесконечнонейронные», но все равно интересно с точки зрения математики).

ENet — архитектура для real-time сегментации.

Статья про эволюционные алгоритмы для обучения CNN.

Автодополнение кода с помощью рекуррентных нейронных сетей.

Еще одна статья, объясняющая успех RNN в моделировании речи — рекурсивные грамматики и глубокие сети выучивают зависимости между словами лучше, чем марковские процессы.

Если у вас есть интересные материалы, которые не попали в этот дайджест или вы хотите увидеть их в следующем, пишите на rachnogstyle@gmail.com, и мы добавим их.

← Предыдущий выпуск: AI & ML дайджест #0

От редакции: Приглашаем читателей, занятых в AI & ML сфере, принять участие в опросе о работе в этой отрасли.


Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Человек ? *