Программа
Коэволюция когнитивных процессов и жизни
Московский институт психоанализа
Вокруг психики и познавательных процессов, в частности, существует флер таинственности. Однако, на многие вопросы можно найти ответы, двигаясь от простого к сложному. В своем докладе я в первую очередь коснусь того, когда и для чего возникли базовые познавательные процессы (ощущение и восприятие), какое морфологическое обеспечение для них требовалось организмам. Во-вторых, я расскажу, как постепенно появлялись более сложные когнитивные феномены – память, внимание и мышление, - как они направляли ход развития сенсорных систем, нервной системы и мозга. В-третьих, предложу пищу для размышлений о том, можно ли создать искусственные познавательные процессы, запустив ход эволюции психики.
Эволюционный психолог, кандидат психологических наук,
Заведующий научно-образовательным центром Биопсихологических исследований
Канал:
Хватов Эволюционный психолог, кандидат психологических наук, занимается исследованиями феномена самосознания (англ. «self-awareness») у животных и человека, преподает общепсихологические дисциплины студентам бакалавриата, специалитета и магистратуры.
Какие бывают дипфейк лица,
а главное, как их детектировать
В моем докладе обзорно пройдемся по тому, какие бывают методы генерации дипфейков лица, как их можно применить в позитивном ключе, а так же какие бывают опасности. После этого сосредоточимся на разборе нескольких статей по детекции замены лица, какие бывают сложности, на что обратить внимание и какие подходы помогут зацепить артефакты генерации.
Не только LPR: какие задачи мы решаем для транспортной видеоаналитики сегодня
VisionLabs
ex-Samsung R&D, ex-Huawei
Как правило, когда люди слышат о компьютерном зрении для транспорта, ассоциаций две: это беспилотники и штрафы за нарушение ПДД. Первое остается за рамками доклада, а второе является только одним частным случаем, когда видеоаналитика может быть применена и требует лишь малый её функционал. В своем рассказе я разберу несколько юзкейсов, расскажу из чего состоит пайплайн распознавания ТС и уделю особое внимание нескольким задачам, которые мы в команде решали в последнее время.
Head of Research Projects
Head of Research Projects
Руководитель исследовательских проектов в VisionLabs - тимлид команды, занимающейся транспортной видеоаналитикой. Более пяти лет опыта в сфере CV: ранее работала в Samsung R&D, Huawei, преподавала DL в Ozon Masters. Выпускница ФУПМ МФТИ и Сколтеха (DS трек).
Руководит исследовательской командой дипфейки и лайфнесс в компании VisionLabs
Parameter-Efficient Fine-Tuning: тюнинг больших языковых моделей сейчас и завтра
Как ускорять инференс GAN моделей для изображений
Сопоставительное дообучение: помогаем Трансформер-энкодеру повысить обобщающую способность
Другие приложения генеративных моделей
University of Massachusetts Lowell
ex-Amazon, ex-Apple, ex-Google
Новосибирский государственный университет
Лаборатория методов анализа больших данных ФКН НИУ ВШЭ
Мы живём в мире, где модели в 1 миллиард или даже 10 миллиардов параметров уже не считаются большими — вы буквально можете запустить их на вашем телефоне. Но тренировать или даже файтнюнить эти модели всё ещё может быть сложно и дорого. Методы Parameter-Efficient Fine-Tuning (PEFT) позволяют адаптировать огромные модели к конкретным задачам или кастомным доменам без десятков GPU. В этом докладе мы обсудим какие виды PEFT существуют и какие из них эффективны для тюнинга больших языковых моделей и о том что именно мы имеем в виду под эффективностью. Мы поговорим о конкретных методах, таких как Adapters, Prompt Tuning, LoRA (с псевдокодом!), а также о том как эти методы будут меняться в ближайшем будущем и можно ли применять их не только для файнтюнинга, но и для предтренировки.
Существуют разные генеративные модели: ганы, нормализующие потоки, диффузионные модели. Однако в продакшене интенсивно используются ганы. Как им удалось выйти в real-time? В этом докладе мы хотим рассказать про техники для ускорения инференса ганов и как сделать одновременно быстро и качественно на примере нашего фреймворка FIANCEE, принятого на CVPR2023.
Когда мы слышим про сопоставительное обучение, то первая же ассоциация, которая у нас возникает - это компьютерное зрение, сиамские нейросеточки, эмбеддинги лиц для биометрии и вот это вот всё. У специалистов по NLP может возникнуть и вторая ассоциация - Sentence BERT и его друзья. Но что по поводу NER? Казалось бы, это token-level задача, а не sentence-level, и причём здесь сопоставительное обучение и сиамские нейросети... А вот и причём! Если нейросеть - это обучаемая иерархия представлений, то сопоставительное обучение - это способ получить иерархию представлений получше, особенно последнее представление (на последнем скрытом слое). Получше - значит, компактнее, разделимее. Зачем это нужно, почему это важно и насколько "few-shot" является данная техника - вот об этом мы и поговорим. Ну и заодно попробуем выяснить, правда ли, что transformer encoders are died, и что GPT-подобные LLM теперь торжествуют? Или же энкодер себя ещё покажет?
Старший научный сотрудник,
кандидат физико-математических наук,
член коллаборации LHCb в CERN
Deep Learning Research Engineers
Научный сотрудник,
старший преподаватель
Модели генеративного ИИ для синтеза изображений по текстовому описанию. Kandinsky 2.X
Кандидат физико-математических наук, член коллаборации LHCb в CERN, руководитель проектов по генеративным моделям и анализу временных рядов в естественных науках и индустрии
PhD студент в UMass Lowell, закончил МФТИ, работал в Parla, iPavlov и стажировался в Google, Apple, Amazon. Влад занимается исследованиями в NLP, конкретно исследует эффективные способы тренировки и адаптации больших моделей на новые задачи. Ведёт канал
DL in NLP в телеграме.
В докладе подробно поговорим про диффузионный подход для задачи генерации изображений по тексту: что такое диффузионный процесс, какие бывают диффузии и как это всё связано с генерацией изображений. Также детально рассмотрим архитектуру модели Kandinsky 2.2, а также возможные режимы её использования: генерация, совмещение изображений, изменение изображений по тексту, генерация похожих на заданное изображений и inpainting/outpainting. Посмотрим на результаты и сравнимся с другими моделями. Также поделюсь инсайтами про особенности запуска и работы проекта
Любит свою семью и машинное обучение, преподает в НГУ, делает нейросети, ходит в горы.
Руководитель проектов в области компьютерного зрения и мультимодальных архитектур,
кандидат технических наук
Канал:
Complete AI Сегодня генеративный искусственный интеллект - одна из передовых областей исследований. Он получил общемировую популярность благодаря сетям для генерации изображений (Dall-E, Stable Diffusion, Kandinsky) и текстов (ChatGPT, GigaChat). Но этот доклад будет не про картинки. Мы поговорим о других приложениях подобных моделей. Рассмотрим несколько примеров из астрономии и физики высоких энергий, где они уже активно используются и помогают делать научные открытия. Также познакомимся с некоторыми задачами из индустрии, в которых генеративные модели применяются для прогноза поведения систем. А в заключении разберемся где и как мы можем использовать генеративный ИИ для решения своих задач.
Защитил диссертацию в 2013 году (к.т.н.) по теме обнаружения искусственных искажений на данных дистанционного зондирования Земли. Занимается исследованиями в области цифровой обработки изображений с 2010 года. Имеет более 60 публикаций в Scopus и Web of Science, индекс Хирша — 11. Был лауреатом премии Президента РФ для молодых учёных в 2015-2017 и 2018-2020 г.г. Руководил исследовательскими коллективами в рамках ряда крупных грантов РФФИ по теме пассивной защиты мультимедийных данных,
В настоящее руководит проектами в области компьютерного зрения и мультимодальных архитектур в Sber AI, преподает в Самарском университете, выступает с лекциями и пишет о событиях в AI и ML в своём телеграм-канале
Complete AI.
Работают в команде генерации аватаров, выпускницы Skoltech
15:00 - 15:55
18:00 - 18:55
16:00 - 16:55
10:00 - 10:55
12:00 - 12:55
17:00 - 17:55
11:00 - 11:55
13:00 - 13:55