Привет. Новая система машинного обучения находит нужные образцы в материалах (рецепты), даже когда данные обучения отсутствуют.
В прошлом месяце три исследователя материалов MIT и их коллеги опубликовали данные, описывающие новую систему искусственного интеллекта (AI), которая может анализировать научные статьи и извлекать «рецепты» для производства конкретных типов материалов.
Эта работа является первым шагом к системе, которая сможет самостоятельно создавать рецепты материалов, которые ранее были описаны только теоретически. Теперь ученые в области материаловедения совместно с коллегами из Департамента электротехники и компьютерных наук Массачусетского технологического института (EECS), делают еще один шаг в этом направлении с новой системой искусственного интеллекта, которая способна распознавать шаблоны более высокого уровня, которые соответствуют существующим рецептам.
Например, новая система смогла определить корреляции между «предшественниками» химических веществ, используемых в рецептурах материалов, и кристаллическими структурами полученных продуктов. Оказалось, что те же корреляции были зафиксированы и в специальной литературе.
Система также опирается на статистические методы, которые обеспечивают естественный механизм для создания оригинальных рецептов. Исследователи используют этот механизм, чтобы предлагать альтернативные рецепты известных материалов, и полученные предложения уже хорошо согласуются с уже существующими.
Скудость и дефицит
Как и многие из наиболее эффективных систем искусственного интеллекта за последние 10 лет, новая система исследователей Массачусетского технологического института - это так называемая нейронная сеть, которая учится выполнять вычислительные задачи, анализируя огромные наборы данных обучения. Традиционно попытки использовать нейронные сети для генерации рецептов материалов сталкиваются с двумя проблемами, которые исследователи описывают как скудость и дефицит.
Любой рецепт материала может быть представлен как вектор, который по существу представляет собой длинную строку чисел. Каждое число представляет собой признак рецептуры, такой как концентрация конкретного химического вещества, растворитель, в котором он растворяется, или температура, при которой происходит реакция.
Поскольку любой данный рецепт будет использовать только некоторые из многих химических веществ и растворителей, описанных в литературе, большинство этих чисел будет равно нулю. Это то, что ученые называют «дефицит».
Аналогичным образом, чтобы узнать, как модифицирующие параметры реакции, такие как химические концентрации и температуры, могут влиять на конечные продукты, система в идеале должна быть обучена на большом количестве примеров, в которых эти параметры меняются. Но для некоторых материалов - особенно более новых - литература может содержать только несколько рецептов. Это "скудость".
«Люди думают, что для машинного обучения вам нужно большое количество данных, а если эти данные редки, вам нужно больше таких данных. Когда вы пытаетесь сосредоточиться на очень конкретной системе, где вы вынуждены использовать многообразные данные, но у вас их мало, можете ли вы использовать эти методы машинного обучения?»
Нейронные сети обычно располагаются в слоях, каждый из которых состоит из тысяч простых процессоров или узлов. Каждый узел соединен с несколькими узлами в слоях выше и ниже. Данные поступают в нижний слой, который манипулирует ими и передают их на следующий уровень, который обрабатывает их и передает на следующий, и так далее. Во время обучения соединения между узлами постоянно корректируются до тех пор, пока выход конечного слоя не будет последовательно приближаться к результатам некоторых вычислений.
Проблема со скудными, многомерными данными заключается в том, что для любого данного примера обучения большинство узлов нижнего уровня не получают данных. Для обеспечения того, чтобы сеть в целом находила достаточное количество данных, чтобы научиться делать надежные обобщения, потребовался бы слишком большой набор учебных материалов.
Искусственное узкое место
Цель сети исследователей из MIT состоит в том, чтобы преобразовать входные векторы на гораздо более мелкие векторы - все номера которых имеют значение для каждого входа. С этой целью сеть имеет средний слой с несколькими узлами (в некоторых экспериментах всего два).
Цель обучения-просто настроить сеть так, чтобы ее выход был как можно ближе ко входу. Если обучение успешно, то несколько узлов в среднем слое должны каким-то образом представлять большую часть информации, содержащейся во входном векторе, но в гораздо более сжатом виде. Такие системы, в которых Выходные данные пытаются совпасть с входными данными, называются "автокодировщиками".
Автоматическое кодирование компенсирует скудость, но для устранения дефицита исследователи обучили свою сеть не только рецептам для производства конкретных материалов, но и рецептам для производства очень похожих материалов. Они использовали три меры сходства, одна из которых направлена на минимизацию количества различий между материалами - подстановкой, скажем, одного атома для другого, при сохранении кристаллической структуры.
Во время обучения вес, который дает сеть узлам рецепта, варьируется в зависимости от их подобия.
Игра коэффициентов
На самом деле, новая сеть - это не просто автокодер, а то, что называется вариационным автокодером. Это означает, что во время обучения сеть оценивается не только по тому, насколько хорошо ее результаты соответствуют ее входным данным, но также и по тому, насколько хорошо значения, принимаемые средним уровнем, согласуются с некоторой статистической моделью - скажем, кривая нормального распределения, То есть, во всех наборах обучения значения, принимаемые средним слоем, должны группироваться вокруг центрального значения и затем сглаживаться с регулярной скоростью во всех направлениях.
После обучения вариационного автокодера с двухузловым средним слоем по рецептам диоксида марганца и родственных соединений, исследователи построили двумерную карту, изображающую значения, которые два средних узла использовали для каждого примера в наборе обучения.
Вариационное автоматическое кодирование также позволяет системе исследователей генерировать новые рецепты. Поскольку значения, принимаемые средним слоем, соответствуют распределению вероятности, выбор значения из этого распределения случайным образом, вероятно, даст правдоподобный рецепт.
«Синтезируемость» - это пример концепции, которая занимает центральное место в материаловедении, но не имеет хорошего описания на основе физики. В результате вычислительные поиски новых материалов за многие годы были затруднены в связи с синтетической недоступностью предсказанных материалов. Исследователи разработали новый, основанный на данных подход к сопоставлению материалов и внесли важный вклад в обеспечение возможности вычислительной идентификации материалов, которые "не только обладают захватывающими свойствами, но и могут быть созданы практически в лаборатории».
Если честно в статье никак не раскрыта тема поиска рецептов. Вы пишите общие вещи про машинное обучение, причем используя совершенно не общепринятую терминологию, иногда вообще полную чушь про структуру нейронных сетей. В узлоах сети нахдяться нейроны - которые не являются процессорами, это функции. Вся нейронка может вообще на одном процессоре работать если надо, может параллелиться но не по слоям или нейронам а по другим принципам. Вобщем лучше бы написали про химию, особенности именно этой задачи. А про ML просто ссыллки на учебные статьи.
Ваш пост поддержали следующие Инвесторы Сообщества "Добрый кит":
midnight, boltyn, aivanouski, oksana0407, vika-teplo, sterh, m0rte, wrong, brika, prifix, kito-boy, leonid96, makssib
Поэтому я тоже проголосовал за него!
Узнать подробности о сообществе можно тут:
Разрешите представиться - Кит Добрый
Правила
Инструкция по внесению Инвестиционного взноса
Вы тоже можете стать Инвестором и поддержать проект!!!
Если Вы хотите отказаться от поддержки Доброго Кита, то ответьте на этот комментарий командой "!нехочу"
dobryj.kit теперь стал Делегатом! Ваш голос важен для всего сообщества!!!
Поддержите нас:
Вы получили 100.00 % апвоут от @uplift. Проект @whalepunk
You have received a 100.00 % vote from @uplift. Powered by @whalepunk
@lisak, поздравляю! Вы добились некоторого прогресса на Голосе и были награждены следующими новыми бейджами:
Награда за общую выплату получил
Вы можете нажать на любой бейдж, чтобы увидеть свою страницу на Доске Почета.
Чтобы увидеть больше информации о Доске Почета, нажмите здесь
Если вы больше не хотите получать уведомления, ответьте на этот комментарий словом
стоп
@lisak, поздравляю! Вы добились некоторого прогресса на Голосе и были награждены следующими новыми бейджами:
Награда за количество опубликованных постов
Вы можете нажать на любой бейдж, чтобы увидеть свою страницу на Доске Почета.
Чтобы увидеть больше информации о Доске Почета, нажмите здесь
Если вы больше не хотите получать уведомления, ответьте на этот комментарий словом
стоп