old_ufo: (Default)
Напишу-ка я по горячим следам отчет о EECVC 2017.

Прошлая конференция была очень хорошей и задала уровень, который не так просто побить. Отличное место, неплохие, в большинстве своем, доклады.
Тем не менее, планку в этом году подняли еще выше, даже опасаюсь ехать в 18-м, чтобы не испортить.

Давайте по порядку.
Город проведения: та же Одесса. Интерсити едет 7 часов, что утомительно, но ок. Правда, приежает в полночь, что слегка не ок, но да ладно.
Место проведения: другой коворкинг: Терминал 42. Заведение хорошее, хотя прошлое было чуть уютнее.
Время: Одесский кинофестиваль. Квартиру было найти не так, чтобы просто, но и не так, чтобы нереально. Зато можно пойти посмотреть фильмы.

Доклады.
Доклады были круты. Если в прошлом году доклад Джеймса про BoW Retrieval был сияющей недосягаемой вершиной, то в этом году только немного выделялся. И не потому, что уровень Джимми упал - это остальные сильно подтянулись.

Саша Шеховцов рассказал о современных (сеточных) optical flow алгоритмах. Немного перенасыщенно для тех, кто не в теме, но в целом все равно понятно. Ну и state-of-art от автора, все дела (раз)

Tolga Birdal из Siemens/TU Munich  рассказал о 3D реконструкции из лазерного сканера при наличии CAD-модели - для оценки точности изготовления. Круто и интересно - особенно учитывая, что такие темы редко встречаются как на CVPR, так и на украинских индустриальных конференциях. Снова стейт-оф-арт и снова от автора метода (два).

Sergii Kharagorgiev рассказал и показал продукт своей компании (https://www.starship.xyz/) : автономных роботах для решения проблемы последней мили. Тут вроде и реклама себя, и постановка задачи (бизнес и технической), и рассказ о том, как у них работает автономная навигация. Достаточно подробно, чтобы было интересно, но недостаточно деталей, чтобы быстро скопировать. ИМХО, отличный образец технического доклада от представителя компании.

Дальше был выпускник КПИшного физтеха и студент М.И. Шлезингера Валерий Крыгин с докладом о 3д реконструкции лица по одному изображению. С одной стороны, доклад был заметно слабее, чем все остальные. С другой - для украинской магистерской работы, это ого-го какой уровень. Ну и то, что доклад слабее, но все-таки сравним с другими, говорит о многом.

Евгений Горовий из IT-Jim рассказывал об обработке и распознавании радарных (SAR) снимков. Интересный доклад - выжимка из серии статей автора и тоже стейт-оф-арт в какой-то специфической области.

После обеда Виктор Сдобников презентовал статью коллег - Евгения Водолазского и М.И. Шлезингера . Непонятно, правда, почему презентовал Виктор, ведь автор статьи на конференции был и даже рассказывал во второй половине доклада. Ну да ладно. Доклад был интересный, но с несколькими проблемами. Во-первых, мало кто его понял, увы. Как минимум потому, что такие вещи лучше воспринимать не с голоса, а вдумчиво читая статью. Во-вторых, результаты хороши, но для случая небольшого трейнинг сета. Чем больше тренировочных данных, тем меньше разница между "правильной" и "неправильной" стратегией принятия решения. Ну и, наконец, метод оптизации для представленной целевой функции не за всё время мира пока отсутствует :)

Джимми рассказал о детектировании повторяющихся паттернов и какие прикольные штуки с ними можно делать - его текущая работа + прошлые статьи (+1 стейт-оф-арт)

Ну и Andrew Rabinovich, директор по исследованиям из Magic Leap (тех, которые привлекли $1.5B и оцениваются в 8 ) Его доклад "Then, Now, Tomorrow: Neural Networks for Computer Vision" был обзором нейросетей "с начала времен". Несмотря на то, что я ожидал как минимум части в стиле "ваш кэп", но таковый оказался весь доклад. Визионерской (на которую я надеялся), пусти и общей, части, увы, не было. Еще он заявил, что компьютер вижн будет решен к 2020 году, с чем присутствующие не согласились, было весело :)

Ну да свою функцию он выполнил - просто приехать на конференцию. Теперь можно хвастаться, что в Украине есть конференциия, где выступает менеджмент Magic Leap и все-такое.


Подведем итоги. В отличие от прошлой EECVC (и других украинских конференций, где я был), неинтересных докладов не было вообще. Более того, на половине докладов были показаны алгоритмы с мировым state-of-art в своей области. Причем не просто пересказаны кем-то, а рассказаны самими авторами.

Организация в технических моментах - отличная.

Итого. Я ничуть не жалею, что вписывался за конференцию, а совсем наоборот. Пусть таких конференций будет больше в Украине. Точнее, не так. Пусть будет больше конференций в AI/CV/ML/... такого уровня, но со своей направленностью: бизнес, академической, и т.д.
old_ufo: (Default)
Совпало две два события: в свое время я НЕ написал пост про офигенную книгу Канемана  https://en.wikipedia.org/wiki/Thinking,_Fast_and_Slow , и недавно сдал экзамен по теории машинного обучения. Так вот, имею что  сказать по этому поводу. 
 
Если книгу до сих пор не читали - прочтите, она того стоит. Автор - психолог Канеман - получил Нобелевку по экономике и не зря. Но сейчас не об этом. 
А о том, что в результате многих экспериментов ученые сделали вывод, что люди не рациональны (внезапно, да? :) ). А именно: боятся потерь больше, чем хотят выиграть. Из-за последнего недополучают выигрышей разного рода в жизни. 
Об этом любят упоминать всякие рационалисты, в частности, Юдковский и его фанаты . Да здравствует Байесова формула и принятие решений по ней. Кто не знает: берем вероятность (статистику) по явлению в мире, умножаем на нашу уверенность, что у нас именно это. Получаем истинную вероятность. Канонический пример: допустим, в мире болеет раком 0.1%. Метод, у которого точность 95%, говорит, что рак. Формула говорит, что вешаться рано, потому что вероятность того, что правда рак = (0.001 *  0.95)/(0.001+0.95 + 0.999 * 0.05) =   1.87%. 
В данном случае формула - ок. 
 
Но тот же Талеб говорит, что в целом такая стратегия ни фига не работает, а надо слушать бабушек и дедушек. 
 
Так вот, обычно он прав.
 
 
Дело в асимметрии, которую наша нейросете-натренированная интуиция отлично впитала в себя. На самом деле, вероятность - фигня. Не совсем фигня, конечно, но это лишь одна сторона медали. Теория машинного обучения говорит нам, что нужно минимизировать нашу функцию потерь. А если нормально оценить вероятности мы не можем (а кто может?), то есть смысл минимизировать максимальные потери, т.е. худший случай. 
 
Простой пример. Лазерная коррекция зрения. Либо получаем либо увеличение качества жизни с большой вероятностью, либо теряем зрение с малой. Байесова стратегия говорит, что когда выгода * вероятность успеха больше потерь * вероятность фейла - надо делать. Минимаксная страгения говорит о том, что в случае фейла - потерять зрения - это катастрофа и ну его нафиг. 
 
Возьмем классические эксперименты о пари на деньги. Да, в теоретическом эксперименте с азартной игрой на малые деньги, есть смысл пойти против природы и сказать себе, что риск 1 гривной примерно равен выигрышу одной гривны. Байесова стратегия говорит, что если сумма ожидаемого выигрыша * вероятность выигрыша > вероятности проигрыша * сумму потеря, надо рискнуть.  Но на практике же люди обычно не считают, а поступают по интуиции и опыту. Т.е. как живут обычно. А обычно, если вы можете с равной вероятностью проиграть миллион или выиграть миллион, то ну его нафиг. Или даже выиграть три миллиона с той же вероятностью, что и проиграть один. Потому что выигрыш трех миллионов, конечно, приятно. Но проигрыш для среднего человека == потеря всего, жить на улице, детей не на что кормить. И это, опять же вполне себе оптимально, если мы выбираем минимаксную стратегию.
 
Или вот кэшлесс. Теоретически выгоды больше, удобно, квартиру скорее ограбят, чем банк. На практике же -  за последние несколько лет упало\закрылось дофига банков - прямо канонично по Талебу - и теории распознавания - возможные потери таковы, что лучше не надо. Ну или диверсифицировать. Тогда максимальный риск ограничен и теория распознавания уже разрешает не быть судьей Чаусом и можно хранить деньги не только в стеклянных банках. Так что не всегда стоит гнаться за "рациональным" прогрессом. Иногда стоит вспомнить опыт предков. Ну или если гнаться - то тогда уже со слегка более глубоким изучением теорвера и прочего, чем пресловутая формула Байеса.
old_ufo: (Default)

Я уже года три, если не четыре, как обещал себе написать этот пост, и вот, день настал.

Вступление. 
Для меня уже довольно давно наличие кандидатской степени или научных публикаций у нас по умолчанию является не плюсом, а большим красным флагом. Особенно в сфере computer vision, machine learning и иже с ними. Да, у меня крутые друзья со степенями, но сейчас речь не о них. Я утверждал и утверждаю, что 99.99% публикаций - мусор, за который должно быть стыдно если не магистрам и аспирантам, так их научрукам.

Как известно, нет худшего врага, чем бывший друг. Когда-то, когда я был в КПИшной аспирантуре, у нас было два обязательных предмета: английский и не помню какой. Экзамен по обоим можно было получить, если провести обзор литературы на английском и написать реферат. Это, кстати, второй не скачанный реферат в моей жизни. Первый был по фракталам и писал я его не себе, но это не важно. 
О, сказали мне. Так это ж это. Можно зафигачить в ВАКовский журнал - вот и будет первый раздел диссера и первая журнальная статья из трех (!). Журнальная. С новизной. Актуальностью. И всем таким прочим. Ну и я, еще не видевший нормальной науки, таки да, согрешил.

Итак, внимание - моя ВАКовская публикация, за которую мне до сих пор стыдно. 
http://www.nbuv.gov.ua/old_jrn/natural/mgs/2011_23/pap-07.pdf

Которую гугл мне периодически добавляет в профиль, а я тщательно удаляю.
Это тупо реферат, где я путаюсь в понятиях и вообще кошмар. Единственное, за что не стыдно - уже тогда я маниакально проставлял все ссылки на литературу. 
Вскоре после этого я поехал в Чехию, а дальше вы знаете.

P.S. Знаете, что еще страшнее? У ЭТОГО есть еще и цитирование. 
https://scholar.google.com.ua/scholar?oi=bibs&hl=en&cites=9484262168701107333&as_sdt=5

Теперь одним пунктом, которым можно меня шантажировать, меньше.

P.P.S. Кто хочет - присоединяйтесь к тегу #скелетывшкафу ;)

old_ufo: (old_ufo)
Народ, така річ.

Буває, що до мене звертаються знайомі із питанням "а чи хтось не шукає людину в сферу ML & CV? Я от думаю змінити роботу".

Буває, що до мене звертаються інші знайомі із питанням "а ти не знаєш прикольну людину, що в CV або ML шарила? Тут місце є".

Проблема в тому, що такі штуки рознесені у часі і я, звичайно, кого можу, з ким можу контачу, але часто тупо не пригадую :(

Вирішив завести собі дві таблички в гугл-екселі, таке собі кадрове агенство від [livejournal.com profile] old_ufo.
До чого це я: якщо ви шукаєте когось, або роботу - пишіть у приват, я собі запишу, щоб не забути. Приватність гарантується, вот ето всьо. Пост не має строку давнини.
old_ufo: (old_ufo)

Обновление в списке computer vision публикаций из пост-СССР.

Снова наши старые знакомые из СколТеха :) Всё, больше никого.
CVPR2016



Статья

Авторы

Организация
Fast ConvNets Using Group-wise Brain Damage Vadim Lebedev, Victor Lempitsky

Skoltech, Yandex

Efficient Indexing of Billion-Scale Datasets of Deep Descriptors. Artem Babenko, Victor Lempitsky

Skoltech, Yandex

old_ufo: (old_ufo)
"- Но мы не хотим каждый раз выводить формулы, мы хотим фыр-фыр-фыр и магическую кнопку "офигенно заинитить нейросетку" , правильно?
- Да.
- Вот эта кнопка!"
Примерное содержание моего пояснения к постеру.


Вот, наконец, настал мой час представлять свою работу.


Спасибо научруку за критику и придирчивость, благодаря им, постер получился наглядным и отлично смотрелся на фоне других.
Рассказывал и отвечал на вопросы все три часа, охрип. Часть людей, которые подходили к стенду, уже читалис статью и задавали только уточняющие вопросы.
А еще всем понравилось название - в отличие от скучных и не запоминающихся других. В общем, be different и правильный маркетинг - наше все.

Другие постеры и музыка )

old_ufo: (old_ufo)

Сегодня было больше интересных постеров...и все еще ни одного, с которого можно взять пример как сделать классный постер.

Что было интересного )



А меня ждет мой постер завтра (уже сегодня на самом деле).

old_ufo: (old_ufo)

Нулевой день конференции. Начался с завтрака, спонсированного Байду.



Про воркшопы и дипмайнд )
old_ufo: (old_ufo)
Пані та панове (особливо, студенти та аспіранти), маю до вас пропозицію.
Якщо ви хочете зробити публикацію на крутій конференції, але не знаєте, над чим саме працювати, не маєте наукового керівника або не маєте грошей на політ на саму конференцію, то ми вирішимо ці проблеми :)

Що я роблю зі своєї сторони:

  • надаю тему та здійснюю наукове керівництво.

  • у разі прийняття статті на топ-конферецію (список трохи згодом), ви їдете презентувати роботу. Реєстрація, дорога, перебування оплачується Szkocka Research Group.

  • допомагаю із доступом на (платні) статті, необхідні для роботи

Ми разом:

  • працюємо над дослідженням та статею.

Ви:

  • маєте бажання і час займатись наукою

  • робите експеримент, статтю та презентуєте її.

Умови співробітництва:

  • Код, що народився під час роботи, публікується під MIT\BSD ліцензією, щоб вся спільнота могла користуватися плодами роботи.

  • Однією з ваших афіліацій указується Szkocka Research Group, Ukraine.

Теми (можете такоє запропонувати свою, обговоримо):

  • Mutltispectal image search by pseudo-Siamese nets (для супутникових знімків\карт)

  • Unsupervised feature learning by learning to noise and de-noise

Хто зацікавився - пишіть в приват, або в коментарі.
P.S. Так, це пілотний запуск Szkocka Research.
old_ufo: (old_ufo)

Давно хотел написать короткую заметку о том, сколько денег нужно на публикации. Намеренно не касаюсь сейчас всяких там зарплат или денег на оборудование. Допустим, вы, как и я, занимаетесь наукой из интереса и ЧСВ, а из оборудования достаточно домашнего компа.

Итак, публикации. Самое полезное в computer science (для сообщества, да и для самопиара) - статья на топовой конференции. Попасть туда сложнее, чем в журнал, а импакт (фактический - сколько прочитает и процитирует) будет побольше. Такое положение разительно отличает computer science от многих других, "классических" областей, где на конференцию отправляют не статьи, а тезисы. Ну ценятся они соответствующе.

Итак, допустим, ваше статью приняли.

Затраты будут состоять из:

1)организационного взноса. Обычно 500-600 у.е., а чему равно у.е., обычно зависит от страны-проводитора. В США - доллары, в Европе - евро, в Британии - фунты.
2)билетов к месту проведения. Если самолетом, то 300-700 долларов. Если поездом...то это хз, очень долго и далеко. И навряд ли дешевле.
3) стоимости проживания - крыша над головой и еда. От 100 долларов (хостел с клопами) до снова-таки 300-800 долларов. Можно попробовать воспользоваться коуч-серфингом, но я не уверен, что это оценят визовые офицеры.

Итого, $900-2100. Одна конференция. На этом фоне обучение в западной аспирантуре (даже платное) - не выглядит таким дорогим, ведь любой уважающий себя университет компенсирует конференционные затраты своим преподавателям и аспирантам.

Впрочем, есть и бюджетный, я бы даже сказал, абсолютно бюджетный вариант - публиковаться в журналах. Да, прогреметь с трибуны не выйдет, зато полностью бесплатно, и в объеме статьи так строго не ограничивают. Правда, процесс это не скорый. Если для конференций от дедлайна до публикации проходит менее полугода, то для журнала год - это мега быстро. Два-три года могут уйти легко. Всякие Эльзевиеры могут попробовать содрать деньги за цветные рисунки в печатной версии (их что, еще кто-то читает?) или за снятие пэйментвола ($2500 примерно. Т.е. вы платите, чтобы вашим читателям статья досталась бесплатно. Лучше выложите препринт у себя на страничке). Но все это легко посылается лесом, так что журнальная публикация - отличный вариант для отечественной науки.


На этом фоне меня забавляют всякие сайты и отдельные личности, предлагающие за деньги (!) опубликоваться в импактовых (!!) журналах, да еще и "доработать статью" (!!!). Я бы даже заплатил, чтобы поржать, глядя как они будут пытаться что-то отправить в PAMI :) А лучше сразу в Nature.

Третий - бесплатный и мгновенный вариант - залить препринт на arXiv. Если вы - Джеффри Хинтон или Андреа Ведальди, то этого достаточно, вас прочтут и процитируют и так. А если нет, то см. первые два пункта.

old_ufo: (old_ufo)
Сегодня выложили результаты ImageNet2015. Выиграла азиатская лаборатория Microsoft - MSRA с еще неопубликованным методом для тренировки сверх-глубоких сетей - 150 слоев. Выглядит как более простая и логичная версия Highway networks.

Google в детекции не участвовал, а в локализации/классификации их команда ReCeption = Inception 2.0 немного уступила MSRA.

Как обычно, additional training data entries, уступили лидерам, которые не использовали никакой дополнительной информации.

Очень круто выступили китайцы-КГБшники (или кто это), команда Trimps-Soushen из "The Third Research Institute of the Ministry of Public Security, P.R. China".

Отдельно порадовал участник cuhk_loc из fdfdfdfd. Кроме этого, команда Henry Machine с traditional feature engineering (no deep learning), занявшая предпоследнее место в распознавании сцен.

Мой результат от имени Szokcka Research Group, отправленный скорее для галочки, внезапно, не самый последний, ни в локализации, ни в классификации.

Если говорить об exUSSR, отсюда по-прежнему практически никто не участвует. Кроме, в этот раз, меня и ребят из Санкт-Петербурга - Deep Punx. А вот участников вообще - хоть отбавляй, причем подавляющее большинство - из Азии.

И да, ImageNet в превращается полностью командный вид спорта.
old_ufo: (old_ufo)

Впервые я (почти?) не опоздал с проверкой мейнстримовой идеи и отправкой её на конференцию.
Как следует инициализировать нейросетки - All you need is a good init
Сам код прост до примитивности: https://github.com/ducha-aiki/LSUVinit/blob/master/tools/extra/lsuv_init.py

Почему "почти"? Потому что на ту же конференцию отправили статью с очень похожей идеей ребята из Беркли и Карнеги-Меллон - Data-dependent Initializations of Convolutional Neural Networks. У них инициализация чуть другая, зато вариантов предложено больше.

Снова встает старая проблема. Если ты делаешь что-то в мейнстримовом направлении, очень трудно не опоздать, плюс статьи быстро стареют. Если ты делаешь не мейнстрим, то мало кто статьи читает (даже если там новый state-of-art на порядки лучше).

upd.: Похожий вопрос на quora

old_ufo: (old_ufo)

Обновление в списке computer vision публикаций из пост-СССР.

А именно, наши старые знакомые из Яндекса :) Всё, больше никого.
ICCV 2015




Статья

Авторы

Организация
Aggregating local deep features for image retrieval Artem Babenko, Victor Lempitsky

Skoltech, Yandex, МФТИ

old_ufo: (old_ufo)

После соревнования по распознаванию планктона и покупки видеокарты, я замахнулся на ImageNet 2015.
Одним из прошлых выводов было "команда - это круто", ну я и попробовал такую собрать.

Вначале все было хорошо, но вскоре один за другим начали появляться дедлайны, проекты и прочее, так что я в итоге остался один. Итого вывод первый:

1) Важно не (с)только количество ресурсов, а их определенность и предсказуемость.
Если знать с самого начала, на что можно рассчитывать, а на что нет, то можно успеть больше и лучше - тупо концентрируясь и отсекая лишнее.

Дедлайны появились и у меня тоже, в результате на имаджнет наложились аж три других дедлайна - две статьи и отправка нашего рабочего приложения в эппл-стор. Отсюда вывод второй:

2) Проблема не (с)только в нехватке времени, а в нехватки времени эффективного. Точнее - умственной энергии.

Посему на локализацию я забил (вернее, попробовал поздно, вышла хрень) и отправил результаты практически только потому, что было бы неудобно перед NVIDIA и IBM, которые предоставили сервер для вычислений. Гонять его месяц и ничего не отправить, как-то совсем тупо.

Мини-вывод: K80 - полная фигня. Нет, 4 ядра по 12 Гб оперативы это, конечно, круто. Но эти 4 ядра вместе тренируют сетку МЕДЛЕННЕЕ, чем Titan X. Из-за неучета этого, кстати, я не успел получить предсказания для полноразмерных картинок и результат минимум на один абсолютный процент хуже, чем должен был быть.

3) ImageNet 2015 - как чемпионат мира, готовиться к нему и проверять идеи нужно весь год. Группой.

А в отведенные два месяца - просто натренировать свой алгоритм на представленных данных.
Почему? Потому что ждать проверки одной гипотезы 2 недели - увольте. Тогда нужно иметь парк серверов, чтобы 2 недели ждать проверки сотни гипотез. Правда, чтобы придумать сотню гипотез, нужны выспавшиеся мозги, см. пункт 2.
Чтобы вы оценили уровень оснащенности, которым оперирует Майкрософт для проверки алгоритмов на Иманджнет уровне, цитата из сегодняшней их статьи:

The resulting architecture was implemented in DMLC as well, and we trained the network for 1000 epochs using (mini-) batches composed of 100.000 images (which was feasible due to distribution of the computational load to a cluster of 52 CPUs and 12 hosts, where each host is equipped with a NVIDIA Tesla K40 GPU).

Пятьдесят два проца и двенадцать блоков по 4 видеокарты.

Тем не менее, не жалею, что попробовал - получил ценный опыт по сбору людей, тайм-менеджменту, и, если все будет хорошо, будет статья по нейросеткам.

old_ufo: (old_ufo)
Пост будет на английском, чтобы мог пригодиться максимальному количеству людей
Here is my list of papers I found useful/worth reading (definitely biased by my preferences).


Deep Fishing: Gradient Features from Deep Nets Idea - take "backwards features" aka gradients w.r.t uniform class distribution instead of activations for CNN when use pretrained CNN as feature exptractor (i.e. ImageNet -> PASCAL)
Manitest: Are classifiers really invariant?
How to get single number, characterizing invariance of classifier to affine transformation of image. Nice theory, even if authors haven`t convince me that it is better, than classical bunch of graphs "accuracy w.r.t rotation, scale, etc.".


Sparse 3D convolutional neural networks
Nice idea to rotate image and than use triangular neighboring instead of square. Actually, other papers of Ben Graham also worth reading. And he is image-classification star at kaggle: two 1st places and one 3rd out of 3 entered competitions.

Automated Identification of Individual Great White Sharks from Unrestricted Fin Imagery
Oral. An example of rigorous multistage preprocessing - essence of the "classical" computer vision. Could be useful for "Right whale" competition at kaggle as source of inspiration.


Very Efficient Training of Convolutional Neural Networks using Fast Fourier Transform and Overlap-and-Add
Yet another (but nice!) improvement of CNN by FFT training. Guys are from U.S. Air Force Research Laboratory (!) :)


Beyond MSER: Maximally Stable Regions using Tree of Shapes
MSER detector improvement by using more general approach. I am waiting for sources for testing it myself. Also very-very nice tree-like poster.


Fitting models to data: Accuracy, Speed, Robustness
Tutorial about optimization - very-very-very nice, or oda to 2nd order methods :)


R-CNN minus R
Oral. Independent variant of "Faster R-CNN" - end-to-end training, no object proposals for detection, very fast.


Convolutional Neural Networks for Direct Text Deblurring
Oral, very impressive. Also I think,  nice approach - select areas, where you can GENERATE labels instead of manual labeling itself.


Diagnosing state-of-the-art object proposal methods
Nice comparison, but lacking some stuff like complementarity of proposals. However, there is a chance they will add this - I had a discussion with authors about this.


Robust Multiple Model Fitting with Preference Analysis and Low-rank Approximation
How to use RANSAC-like approach (except obvious greedy one) for mutiple models.


Learning the Structure of Deep Architectures Using L1 Regularization
Instead of dropout, they try to learn needed level of sparsity and neccesary number of filters. But for some reason they haven`t tried obvious next step: after learning needed number of filter, train a CNN with exactly this number of filters.


A BoW-equivalent Recurrent Neural Network for Action Recognition
Gyus are new to computer vision, come from speech processing. Nice idea though.


Face Painting: querying art with photos
Cross-domain retrieval, nice results. Paper from Andrea Vedaldi students cannot be bad ;)

BMVC-2015

Sep. 13th, 2015 05:27 pm
old_ufo: (old_ufo)
Вначале немного о самом городе - Суонси (Swansea, он же Abertawe).Чуть-чуть о городе )



Но вернемся к конференции )
old_ufo: (old_ufo)
Но подробный пост потом - конференция-то только завтра начнется.


Кратко: Лондон хорошо, Суонси (а точнее, его универ) - офигенен. Университет находится на берегу моря, в красивенном парке, в номере есть чайний, чай и кофе. Когда искал, куда идти, наткнулся на корпус "Egypt studies", когда селился - на профессора, которая тоже приехала на конференцию. Но что-то по биопсии.
Все надписи продубированы на валлийском. Кроме пароля на вайфай - он только на валлийском :) Клевый язык, почти эльфийский. И 6 согласных подряд.

Завтра напишу чуть более связно :)
old_ufo: (old_ufo)
>"I am pleased to inform you that your manuscript referenced above has been accepted for publication in Computer Vision and Image Understanding."

Продолжаем собирать камни. Статья MODS: Fast and Robust Method for Two-View Matching принята к публикации. Третий по цитируемости журнал в computer vision, если верить майкрософту и восьмой, если гуглу. Впрочем, в гугле там общий рейтинг с pattern recognition.

Время прохождения:
21.01.2015 - отправили статью.
23.04.2015 - статья вернулась на minor revision
25.05.2015 - отправили назад с ответом рецензетам и изменениями
14.08.2015 - принята к публикации
01.09.2015 - опубликована (пока препринт) http://www.sciencedirect.com/science/article/pii/S1077314215001800
01.11.2015 - опубликована финальная версия, до 21 декабря в свободном доступе здесь

P.S. Кстати, обратите внимание на конференции и arXiv. Их популярность все растет, а журналов понемногу падает.
old_ufo: (old_ufo)
Чтобы не быть голословным по поводу качества нашей науки я написал простенький скрипт и составил список публикаций из пост-СССР учреждений на топовых конференциях по компьютерному зрению. Начнем с этого года.
Есть статьи c CVPR и BMVC, ICCV будет чуть позже, а ECCV проводится только по четным годам.

Методика очень проста - черновой список авторов я получаю с помощью скрипта, а потом гуглю, кто откуда. Учитываются только те, чьи организации находятся на территории бывшего СССР. Скажем, Александр Шеховцов - выпускник КНУ им. Шевченка - в список не попал, потому как сейчас работает и публикуется из TU Graz.

Итак, поехали

CVPR2016





Статья



Авторы



Организация
Fast ConvNets Using Group-wise Brain Damage Vadim Lebedev, Victor Lempitsky

Skoltech, Yandex

Efficient Indexing of Billion-Scale Datasets of Deep Descriptors. Artem Babenko, Victor Lempitsky

Skoltech, Yandex


BMVC 2015


Статья


Авторы


Организация
Perceptually Motivated Benchmark for Video Matting Mikhail Erofeev, Yury Gitman, Alexey Fedorov, Dmitriy Vatolin and Jue Wang http://graphics.cs.msu.ru/ МГУ
Camera Pose and Focal Length Estimation Using Regularized Distance Constraints Alexander Vakhitov, Katerina Kanaeva and Lev Gurevich http://se.math.spbu.ru/ СПбГУ

CVPR 2015



Статья


Авторы


Организация
Tree Quantization for Large-Scale Similarity Search and Classification Artem Babenko, Victor Lempitsky Skoltech, Yandex, ВШЭ
Learning To Look Up: Realtime Monocular Gaze Correction Using Machine Learning Daniil Kononenko, Victor Lempitsky Skoltech


ICCV 2015



Статья


Авторы


Организация
Aggregating local deep features for image retrieval Artem Babenko, Victor Lempitsky

Skoltech, Yandex, МФТИ

Негусто, правда? Буду обновлять по мере прохождения конференций.

P.S. Качайте скрипт и добавляйте данные по machine learning и другим областям :)

old_ufo: (old_ufo)
Кому публикацию бесплатно и именной серебряный знак профессора экономических наук?

Profile

old_ufo: (Default)
old_ufo

July 2017

S M T W T F S
      1
2345678
9101112131415
16 171819202122
23242526272829
3031     

Syndicate

RSS Atom

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 25th, 2017 10:50 am
Powered by Dreamwidth Studios