Нейронные сети — всё по этой теме для программистов
Первое знакомство с нейронными сетями на примере Tensorflow 2
Эта статья посвящается всем начинающим в области нейронных сетей. В особенности тем, кто не создал еще ни одной «нейронки».
Кейс: Хабиб vs МакГрегор или Распознавание лиц на Python
Учимся представлять фотографии в виде матриц, обрабатывать их, детектить лица и натравливать на них нейронку.
Тест: что реально, а что создала нейросеть?
Нейросеть искусно имитирует людей, котиков и даже картины. Проверьте, сможете ли вы отличить реальное от того, что создали нейросети.
Чего ждать в сфере ИИ и машинного обучения в 2021 году?
Нейросети становится умнее с каждым годом. Рассказываем о том, чего ждать в сфере ИИ и машинного обучения в 2021 году
hent-AI: нейросеть, которая убирает цензуру из аниме
Нашли на GitHub любопытную нейросеть. По ссылке можно найти принцип работы и инструменты, а также исходный код, чтобы запустить у себя или доработать.
Как работает нейронная сеть — простое объяснение на цветочках
В этом видео автор на простом примере объясняет принципы работы линейного слоя нейронной сети и базовые термины.
Правильный NLP: как работают и что умеют системы обработки естественного языка
О том, как правильно построить эффективный процесс обработки человеческой речи, где сегодня применяются NLP-решения и с какими задачами они справляются.
Как с помощью нейросети стилизовать изображение под работу известного художника: разбираемся с нейронным переносом стиля
Как стилизовать свои изображения под картины известных художников с помощью концепции глубокого обучения? Разбираемся в статье.
Какие из этих нейросетей мы выдумали? Тест-угадайка от Tproger и ABBYY
С помощью нейросетей можно и генерировать сплющенных котов, и автоматизировать работу в организациях с многомиллиардным оборотом. Сможете по описанию нейросети угадать, существет ли она?
Что такое нейронная сеть и как она работает — основы простым языком
В этом видео рассказывается, из чего состоит нейросеть и как она работает на примере распознавания рукописных цифр.
Проекты искусственного интеллекта, с которыми можно поиграться уже сегодня
Статья расскажет о применении искусственного интеллекта и машинного обучения на практике. Обучение осуществляется в игровой форме.
Искусственный интеллект: основные задачи и методы на примерах из жизни
В данном материале на примерах их жизни описаны несколько методологий и задач искусственного интеллекта: от нейронок до экспертных систем
GPU — это не только про игры: четыре примера с NVIDIA GTC 2019
По итогам NVIDIA GTC 2019 собрали для вас четыре современных примера применения GPU: технологические тренды, за которые стоит зацепиться айтишникам.
Кто это нарисовал — нейросеть или художник? Тест-угадайка от Tproger и «Системный Блокъ»
Сможет ли робот превратить кусок холста в произведение искусства? А если это нейросеть, обученная на великих картинах? Почувствуйте всю силу современных технологий в тесте «Нейросеть или художник», который мы сделали…
«Умная» колонка, наушники с технологией открытого звука и мультиподписка на сервисы: итоги конференции YaC 2018
Приглашенные спикеры рассказали об использовании цифровых технологий в сферах торговли, маркетинга и информационных технологий.
Инструменты для работы с интернетом вещей и звонки в смешанной реальности: обзор конференции Microsoft Build 2018
7 мая 2018 года началась ежегодная конференция для разработчиков Microsoft Build 2018. Компания рассказала о наступлении эры «умных» устройств и представила новые продукты.
Как работает беспилотный транспорт
Знаете ли вы, как работает беспилотный транспорт? В статье вы прочитаете о перспективах автономных автомобилей и технологиях, применяемых для их создания и обучения.
Пишем нейросеть на Go с нуля
В этой статье мы шаг за шагом создадим нейросеть на Go для решения задачи классификации, попробовав с её помощью различить цветы ириса.
Курс «Нейронные сети»
Русскоязычный курс, рассказывающий, как программировать нейронные сети — модели биологических нейронных сетей мозга, в которых нейроны имитируются относительно простыми элементами.
Курс «Введение в компьютерное зрение»
Русскоязычный курс, рассматривающий как базовые понятия компьютерного зрения, так и ряд современных алгоритмов, позволяющих решать практические задачи. Отдельно отмечается связь методов компьютерного зрения с обработкой зрительной информации в мозгу человека. Курс…
Обучение автопилота на Python в Grand Theft Auto V
Достаточно известный среди любителей языка Python разработчик по имени Гаррисон «Sentdex» Кинсли выпустил очередной курс, «Python Plays GTA V».
Общий взгляд на машинное обучение: классификация текста с помощью нейронных сетей и TensorFlow
В статье подробно описывается пример создания нейронной сети для классификации текста при помощи TensorFlow. Материал понятен даже без спецподготовки.
Нейронная сеть помогает писать код для нейронных сетей: обзор инструмента Neural Complete
На GitHub появился интерфейс для автозаполнения Neural Complete. Это нейронная сеть, которая помогает писать код для создания нейронных сетей.
Машинное обучение и нейронные сети на PHP: библиотека PHP-ML
Согласно Википедии, машинное обучение (англ. Machine Learning) — обширный подраздел искусственного интеллекта, математическая дисциплина, использующая разделы математической статистики, численных методов оптимизации, теории вероятностей, дискретного анализа, и извлекающая знания из данных.
Подборка материалов для изучения машинного обучения
Машинное обучение сейчас является одной из самых востребованных областей в программировании. И действительно — человек издавна мечтал создать ИИ, и сейчас эта мечта близка как никогда. Алгоритмы машинного обучения могут…
Разнообразие нейронных сетей. Часть вторая. Продвинутые конфигурации
В первой части мы разобрались с базовыми, не очень сложными видами архитектур искусственных нейронных сетей. Настало время закончить начатое.
Шпаргалка по разновидностям нейронных сетей. Часть первая. Элементарные конфигурации
Новые виды архитектуры нейронных сетей появляются постоянно, и в них можно запутаться. Мы собрали для вас своеобразную шпаргалку, содержащую большую часть существующих видов ИНС. Хотя все они представлены как уникальные,…
10 полезных книг по машинному обучению
Машинное обучение — обширная тема, ставшая в последнее время весьма важной. Для тех, кто хочет с ней познакомиться, эта подборка станет приятным подспорьем. Будем рады, если вы расскажете нам в комментариях о других хороших книгах о машинном…
Первые шаги искусственного интеллекта
Самые ранние упоминания об искусственно созданных человекоподобных существах относятся еще к Древнему Египту, но за минувшие тысячелетия человечество только сейчас встало на порог новых эпохальных открытий в области искусственного интеллекта. …
Изучаем нейронные сети за четыре шага
Рассказывает Per Harald Borgen В этот раз я решил изучить нейронные сети. Базовые навыки в этом вопросе я смог получить за лето и осень 2015 года. Под базовыми навыками я…
Линус «Москвич» Торвальдс: какие автомобили распознает нейронная сеть в известных программистах
Месяц назад популярный сайт «Авто.ру» обновил свои приложения для смартфонов, добавив функцию распознавания автомобиля по его фотографии. Алгоритм основан на нейронных сетях, обучение проводилось на большой выборке — почти 6 миллионов фотографий…
9 новых технологий, которые вы можете освоить за лето и стать ценнее на рынке труда
Сегодня IT развивается так быстро, как никогда. Многие вещи, бывшие общепринятыми ещё каких-то пару лет назад, сегодня уже не используется. И наоборот — появилась куча крутых штук, от которых фанатеют все программисты:…
Открытое образование — Программирование глубоких нейронных сетей на Python
В курсе «Программирование глубоких нейронных сетей на Python» рассматривается применение нейросетей для решения прикладных задач компьютерного зрения и анализа текстов.
Вы узнаете, как устроена модель искусственного нейрона и нейронной сети, а также как обучать нейронную сеть решать задачи анализа данных. Будут рассмотрены популярные в настоящее время архитектуры нейронных сетей: сверточные, сети долго-краткосрочной памяти (LSTM) и управляемые рекуррентные блоки (GRU).
Отличительная особенность курса – практическая направленность. Курс включает как изучение теоретических материалов, так и большое количество практических заданий на разработку программ обучения нейронных сетей. Программы мы будем писать на Python с использованием готовых библиотек TensorFlow и Keras. Вы обучите нейронные сети для распознавания моделей одежды, классификации объектов на изображениях, анализа тональности текстов, автоматической генерация текста. Вы научитесь использовать бесплатную облачную платформу Google Colaboratory для обучения нейронных сетей.
Видео-лекции, скринкасты, тестовые, интерактивные и проектные задания
Умение программировать на любом высокоуровневом языке, желательно Python.
Базовые знания высшей математики: производные, операции с матрицами и векторами
Раздел 1. Основы программирования нейронных сетей
Тема 1.2. Модель искусственного нейрона. Общее представление об искусственной нейронной сети
Тема 1.3. Библиотеки для обучения нейронных сетей
Тема 1.4. Распознавание предметов одежды. Обзор набора данных и выбор архитектуры нейронной сети
Тема 1.5. Распознавание предметов одежды. Построение архитектуры нейронной сети и ее обучение
Тема 1.6. Анализ качества обучения нейронной сети
Раздел 2. Обучение искусственной нейронной сети
Тема 2.1. Обучение искусственного нейрона
Тема 2.2. Обучение искусственной нейронной сети. Метод обратного распространения ошибки
Раздел 3. Нейронные сети для анализа табличных данных
Раздел 4. Нейронные сети для задачи анализа изображений
Тема 4. 1. Сверточные нейронные сети
Тема 4.2. Распознавание объектов на изображении
Тема 4.3. Предварительно обученные нейронные сети
Тема 4.4. Перенос обучения в нейронных сетях
Раздел 5. Нейронные сети для задачи анализа естественного языка
Тема 5.1. Нейронные сети для задач обработки естественного языка
Тема 5.2. Одномерные сверточные нейронные сети
Тема 5.3. Рекуррентные нейронные сети для задач обработки естественного языка
В результате освоения курса обучаемый будет способен:
1. Разрабатывать программы обучения глубоких нейронных сетей на Python с помощью библиотек TensorFlow и Keras.
2. Использовать открытую облачную платформу Google Colaboratory для обучения глубоких нейронных сетей.
3. Применять нейронные сети для классификации изображений.
4. Применять нейронные сети для классификации текстов.
5. Применять нейронные сети для решения задачи регрессии для табличных данных.
6. Использовать предварительно обученные нейронные сети.
1) Способность разрабатывать программы обучения глубоких нейронных сетей
2) Способность выбирать архитектуру нейронной сети для заданной задачи
Как создать нейронную сеть без навыков программирования
Короткая инструкция от vc.ru том, как за несколько шагов создать простую нейронную сеть и научить её узнавать известных предпринимателей на фотографиях.
Читать далее
Проще всего разобраться с принципами работы нейронных сетей можно на примере Teachable Machine — образовательного проекта Google.
В качестве входящих данных — то, что нужно обработать нейронной сети — в Teachable Machine используется изображение с камеры ноутбука. В качестве выходных данных — то, что должна сделать нейросеть после обработки входящих данных — можно использовать гифку или звук.
Например, можно научить Teachable Machine при поднятой вверх ладони говорить «Hi». При поднятом вверх большом пальце — «Cool», а при удивленном лице с открытым ртом — «Wow».
Для начала нужно обучить нейросеть. Для этого поднимаем ладонь и нажимаем на кнопку «Train Green» — сервис делает несколько десятков снимков, чтобы найти на изображениях закономерность. Набор таких снимков принято называть «датасетом».
Теперь остается выбрать действие, которое нужно вызывать при распознании образа — произнести фразу, показать GIF или проиграть звук. Аналогично обучаем нейронную сеть распознавать удивленное лицо и большой палец.
Как только нейросеть обучена, её можно использовать. Teachable Machine показывает коэффициент «уверенности» — насколько система «уверена», что ей показывают один из навыков.
Теперь сделаем свою нейронную сеть, которая при отправке изображения будет сообщать о том, что изображено на картинке. Сначала научим нейронную сеть распознавать цветы на картинке: ромашку, подсолнух, одуванчик, тюльпан или розу.
Для создания собственной нейронной сети понадобится Python — один из наиболее минималистичных и распространенных языков программирования, и TensorFlow — открытая библиотека Google для создания и тренировки нейронных сетей.
Устанавливаем Python
Если у вас Windows: скачиваем установщик с официального сайта Python и запускаем его. При установке нужно поставить галочку «Add Python to PATH».
На macOS Python можно установить сразу через Terminal:
brew install python
Для работы с нейронной сетью подойдет Python 2.7 или более старшая версия.
Устанавливаем виртуальное окружение
Открываем командную строку на Windows или Terminal на macOS и последовательно вводим несколько команд:
pip install —upgrade virtualenv
virtualenv —system-site-packages Название
source Название/bin/activate
На компьютер будет установлен инструмент для запуска программ в виртуальном окружении. Он позволит устанавливать и запускать все библиотеки и приложения внутри одной папки — в команде она обозначена как «Название».
Устанавливаем TensorFlow
Вводим команду:
pip install tensorflow
Всё, библиотека TensorFlow установлена в выбранную папку. На macOS она находится по адресу Macintosh HD/Users/Имя_пользователя/, на Windows — в корне C://.
Можно проверить работоспособность библиотеки последовательно вводя команды:
python
import tensorflow as tf
hello = tf.constant(‘Hello, TensorFlow’)
sess = tf.Session()
print(sess.run(hello))
Если установка прошла успешно, то на экране появится фраза «Hello, Tensorflow».
Классификатор — это инструмент, который позволяет методам машинного обучения понимать, к чему относится неизвестный объект. Например, классификатор поможет понять, где на картинке растение, и что это за цветок.
Открываем страницу «Tensorflow for poets» на Github, нажимаем на кнопку «Clone or download» и скачиваем классификатор в формате ZIP-файла.
Затем распаковываем архив в созданную на втором шаге папку.
Набор данных нужен для обучения нейронной сети. Это входные данные, на основе которых нейронная сеть научится понимать, какой цветок расположен на картинке.
Сначала скачиваем набор данных (датасет) Google с цветами. В нашем примере — это набор небольших фотографий, отсортированный по папкам с их названиями.
Содержимое архива нужно распаковать в папку /tf_files классификатора.
Теперь нужно запустить обучение нейронной сети, чтобы она проанализировала картинки из датасета и поняла при помощи классификатора, как и какой тип цветка выглядит.
Переходим в папку с классификатором
Открываем командную строку и вводим команду, чтобы перейти в папку с классификатором.
Windows:
cd C://Название/
macOS:
cd Название
Запускаем процесс обучения
python scripts/retrain.py —output_graph=tf_files/retrained_graph. pb —output_labels=tf_files/retrained_labels.txt —image_dir=tf_files/flower_photos
Что указано в команде:
- retrain.py — название Python-скрипта, который отвечает за запуск процесса обучения нейронной сети
- output_graph — создаёт новый файл с графом данных. Он и будет использоваться для определения того, что находится на картинке
- output_labels — создание нового файла с метками. В нашем примере это ромашки, подсолнухи, одуванчики, тюльпаны или розы
- image_dir — путь к папке, в которой находятся изображения с цветами.
Программа начнет создавать текстовые файлы bottleneck — это специальные текстовые файлы с компактной информацией об изображении. Они помогают классификатору быстрее определять подходящую картинку.
Весь ход обучения занимает около 4000 шагов. Время работы может занять несколько десятков минут — в зависимости от мощности процессора.
После завершения анализа нейросеть сможет распознавать на любой картинке ромашки, подсолнухи, одуванчики, тюльпаны и розы.
Перед тестированием нейросети нужно открыть файл label_image.py, находящийся в папке scripts в любом текстовом редакторе и заменить значения в строках:
input_height = 299
input_width = 299
input_mean = 0
input_std = 255
input_layer = «Mul»
Выберите любое изображение цветка, которое нужно проанализировать, и поместите его в папку с нейронной сетью. Назовите файл image.jpg.
Для запуска анализа нужно ввести команду:
python scripts/label_image.py —image image.jpg
Нейросеть проверит картинку на соответствие одному из лейблов и выдаст результат.
Например:
Это значит, что с вероятностью 72 процента на картинке изображена роза.
Теперь можно расширить возможности нейронной сети — научить её распознавать на картинке не только цветы, но и известных предпринимателей. Например, Илона Маска и Марка Цукерберга.
Для этого нужно добавить новые изображения в датасет и переобучить нейросеть.
Собираем собственный датасет
Для создания датасета с фотографиями предпринимателей можно воспользоваться поиском по картинкам Google и расширением для Chrome, которое сохраняет все картинки на странице.
Папку с изображениями Илона Маска нужно поместить в \tf_files\flower_photos\musk\. Аналогично все изображения с основателем Facebook — в папку \tf_files\flower_photos\zuckerberg\.
Чем больше фотографий будет в папках, тем точнее нейронная сеть распознает на ней предпринимателя.
Переобучаем и проверяем
Для переобучения и запуска нейронной сети используем те же команды, что и в шагах 4 и 5.
python scripts/retrain.py —output_graph=tf_files/retrained_graph.pb —output_labels=tf_files/retrained_labels.txt —image_dir=tf_files/flower_photos
python scripts/label_image.py —image image.jpg
Чтобы процесс обучения не занимал каждый раз много времени, нейросеть лучше всего запускать на сервере с GPU — он спроектирован специально для таких задач.
Процесс запуска и обучения нейронной сети на сервере похож на аналогичный процесс на компьютере.
Создание сервера с Ubuntu
Нам понадобится сервер с операционной системой Ubuntu. Её можно установить самостоятельно, либо — если арендован сервер Selectel — через техподдержку компании.
Установка Python
sudo apt-get install python3-pip python3-dev
Установка TensorFlow
pip3 install tensorflow-gpu
Скачиваем классификатор и набор данных
Аналогично шагам 2 и 3 на компьютере, только архивы необходимо загрузить сразу на сервер.
Переобучаем модель
python3 scripts/retrain.py —output_graph=tf_files/retrained_graph.pb —output_labels=tf_files/retrained_labels.txt —image_dir=tf_files/flower_photos
Тестируем нейросеть
python scripts/label_image.py —image image.jpg
vc. ru — издание для предпринимателей нового поколения:
ГЛУБОКИЕ ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ ДЛЯ ПРОГНОЗА ЗНАЧЕНИЙ ДЕБИТОВ ДОБЫВАЮЩИХ СКВАЖИН
Актуальность исследования обусловлена необходимостью поддержки принятия решения специалистами добывающих предприятий нефтегазовой отрасли при управлении производством. Точное прогнозирование значений дебитов добывающих скважин позволяет определить такие технологические режимы работы фонда скважин и технологического оборудования, которые позволят достичь заданного объёма выпуска продукции. Существующие методы не всегда обеспечивают требуемый уровень точности при прогнозе значений дебитов скважин, что приводит к ошибкам при расчёте экономического эффекта при оценке рентабельности добывающих скважин и последующих поставок углеводородного сырья, а также при учёте ограничений, накладываемых органами надзора за пользованием недрами. Цель: разработать и предложить наиболее эффективные модели глубоких искусственных нейронных сетей при прогнозе значений компонентов добычи углеводородного сырья – нефти, газа, жидкости (газового конденсата) и воды. Объекты: технологические параметры дебитов добывающих скважин фонда нефтяных, газовых, нефтегазовых и нефтегазоконденсатных месторождений. Методы: методы анализа больших объёмов технологических данных скважин, развиваемые в соответствии с концепцией «Big Data»; модели глубоких искусственных нейронных сетей; объектно-ориентированное программирование; методы оценки и статистического анализа результатов исследований эффективности глубоких искусственных нейронных сетей при прогнозе значений дебитов добывающих скважин. Результаты. Разработана методика подготовки данных по дебитам скважин для обучения и тестирования глубоких искусственных нейронных сетей прямого распространения. Проведены исследования различных архитектур таких нейросетей при решении задач прогноза дебитов нефти, газа, жидкости (газового конденсата) и дебита воды. Выявлены наиболее эффективные архитектуры глубоких нейросетей прямого распространения. Такие нейронные сети позволяют увеличить точность прогноза в два и более раза по сравнению с точностью прогноза, даваемой традиционным методом экстраполяции по скользящей средней.
Программирование нейронных сетей на языке PYTHON. № УД-4414/уч.
Please use this identifier to cite or link to this item:
https://elib.bsu.by/handle/123456789/185037
Title: | Программирование нейронных сетей на языке PYTHON. № УД-4414/уч. |
Other Titles: | Учебная программа учреждения высшего образования по учебной дисциплине для специальности: 1-31 03 04 Информатика 1-31 03 07-01 Прикладная информатика (программное обеспечение компьютерных систем) |
Authors: | Казачёнок, В. В. |
Keywords: | ЭБ БГУ::ЕСТЕСТВЕННЫЕ И ТОЧНЫЕ НАУКИ::Кибернетика ЭБ БГУ::ОБЩЕСТВЕННЫЕ НАУКИ::Информатика |
Issue Date: | 2017 |
Publisher: | БГУ, ФПМИ, Кафедра компьютерных технологий и систем |
Abstract: | Курс «Программирование нейронных сетей на языке Python» входит в разряд специальных курсов, читаемых студентам специальностей «Информатика» и «Прикладная информатика». Он основывается на знаниях, полученных в рамках изучения курсов «Математический анализ» и «Геометрия и алгебра». Дисциплина «Программирование нейронных сетей на языке Python» знакомит студентов с прикладными задачами использования нейронных сетей в задачах классификации, принятия решений, распознавания образов, прогнозирования. При этом рассматривается препроцессинг данных, исследуется глубокое обучение нейронной сети, анализируется качество обучения на основе использования стандартных библиотек Python. Проводится экспериментальное исследование возможностей использования обученной нейронной сети для классификации своих изображений. |
URI: | http://elib.bsu.by/handle/123456789/185037 |
Appears in Collections: | Цикл дисциплин специализации. Семестр 5-7_ПИ Цикл дисциплин специализации. Семестр 5-7_ИНФ |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
Что такое нейронные сети? — Российская Федерация
Нейронные сети имитируют работу человеческого мозга, позволяя компьютерным программам находить закономерности и решать стандартные задачи в области искусственного интеллекта (ИИ), машинного и глубокого обучения.
Что такое нейронные сети?
Нейронные сети, известные также как искусственные нейронные сети (ANN) или смоделированные нейронные сети (SNN), являются подмножеством алгоритмов машинного обучения и служат основой для алгоритмов глубокого обучения. Понятие «нейронные сети» возникло при попытке смоделировать процессы, происходящие в человеческом мозге при передаче сигналов между биологическими нейронами.
Искусственные нейронные сети (ANN) состоят из образующих слои узлов: слой входных данных, один или несколько скрытых слоев и слой выходных данных. Каждый узел (искусственный нейрон) связан с другими узлами с определенным весом и пороговым значением. Если вывод какого-либо узла превышает пороговое значение, то этот узел активируется и отправляет данные на следующий уровень сети. В противном случае данные на следующий уровень сети не передаются.
Для обучения и постепенного повышения точности нейронных сетей применяются обучающие данные. При достижении требуемой точности алгоритмы обучения превращаются в мощные инструменты для вычислений и искусственного интеллекта, что позволяет использовать их для классификации и кластеризации данных с высокой скоростью. Задачи из области распознавания речи или изображений можно выполнить за несколько минут, а не за несколько часов, как при распознавании вручную. Одной из наиболее известных нейронных сетей является алгоритм поиска Google.
Принцип работы нейронных сетей
Представим каждый отдельный узел в виде модели линейной регрессии, состоящей из входных данных, весовых коэффициентов, смещения (или порогового значения) и выходных данных. Эту модель можно описать следующей формулой:
∑wixi + bias = w1x1 + w2x2 + w3x3 + bias
output = f(x) = 1 if ∑w1x1 + b> = 0; 0 if ∑w1x1 + b < 0
После определения слоя входных данных необходимо назначить весовые коэффициенты. Они помогают определить важность той или иной переменной: чем выше весовой коэффициент, тем существеннее его вклад в выходные данные по сравнению с другими входными данными. Затем произведения входных данных и соответствующих им весовых коэффициентов суммируются. Наконец, выходные данные передаются через функцию активации, которая вычисляет результат. Если полученный результат превышает установленное пороговое значение, узел срабатывает (активируется), передавая данные на следующий слой сети. Выходные данные одного узла становятся входными данными для следующего узла. Такой последовательный процесс передачи данных между слоями характерен для нейронных сетей прямого распространения.
Попробуем представить отдельно взятый узел в виде двоичных чисел. Для более наглядной демонстрации этой концепции рассмотрим реальный пример: допустим, вам нужно принять решение, стоит ли идти на серфинг (Да: 1, Нет: 0). Решение «идти» или «не идти» — наш прогнозируемый результат или «y c крышечкой». Предположим, существует три фактора, которые влияют на принятие решения:
- Хорошие ли сегодня волны? (Да: 1, Нет: 0)
- Свободен ли лайнап? (Да: 1, Нет: 0)
- Были ли случаи нападения акул в последнее время? (Да: 0, Нет: 1)
Предположим, у нас имеются следующие входные данные:
- X1 = 1, так как сегодня хорошие волны для серфинга
- X2 = 0, так как уже собралось много серферов
- X3 = 1, так как в последнее время не было нападений акул
Теперь нам нужно присвоить весовые коэффициенты для определения важности. Чем выше значение весового коэффициента, тем большим будет влияние конкретной переменной на решение или результат.
- W1 = 5, так как большие свеллы — редкость
- W2 = 2, так как вы уже привыкли к скоплению серферов
- W3 = 4, так как вы боитесь акул
Наконец, установим пороговое значение 3, т. е. величина смещения будет равна –3. Теперь, когда все входные данные готовы, можно подставить значения в формулу и получить желаемый результат.
Y-hat = (1*5) + (0*2) + (1*4) – 3 = 6
С помощью функции активации, о которой было сказано в начале раздела, можно вычислить выходные данные для этого узла: результат равен 1, так как 6 больше 0. Это означает, что нам стоит идти на серфинг; если же изменить весовые коэффициенты или пороговое значение, результат вычисления для данной модели может отличаться. Из примера, приведенного выше, следует, что нейронная сеть способна принимать решения с возрастающей степенью сложности, в зависимости от выходных данных предыдущих решений или слоев.
В предыдущем примере для иллюстрации математических понятий были использованы персептроны, в то время как в нейронных сетях применяются сигмоидальные нейроны, значения которых могут находиться в диапазоне от 0 до 1. По своему принципу работы нейронные сети схожи с деревьями принятия решений, поэтому в результате передачи данных от одного узла к другому, при x значений от 0 до 1, влияние того или иного изменения отдельной переменной на выходные данные любого узла и, следовательно, выходные данные нейронной сети уменьшается.
Когда речь заходит о более практических сценариях использования нейронных сетей, например распознавание или классификация изображений, то для обучения алгоритма используется контролируемое обучение или маркированные наборы данных. В ходе обучения модели нам потребуется оценить точность с помощью функции стоимости (или потерь). Это так называемая среднеквадратическая ошибка (MSE). В уравнении ниже используются следующие обозначения:
- i обозначает индекс выборки,
- y-hat («y c крышечкой») обозначает прогнозируемый результат,
- y обозначает фактическое значение,
- m обозначает число выборок. 2
Конечная цель — минимизировать функцию стоимости, чтобы обеспечить корректность для каждого отдельно взятого наблюдения. В процессе корректировки весовых коэффициентов и смещения модель использует функцию стоимости и обучение с подкреплением для достижения точки сходимости или локального минимума. Корректировка весовых коэффициентов происходит с помощью алгоритма градиентного спуска, что позволяет определить стратегию уменьшения количества ошибок (или минимизации функции стоимости). С каждым шагом обучения параметры модели корректируются, пока не будет достигнут минимум.
Для более подробного изучения математических понятий, используемых в нейронных сетях, рекомендуем прочитать статью на сайте IBM Developer.
Большинство глубоких нейронных сетей относятся к алгоритмам прямого распространения, т. е. данные передаются только в одном направлении — от входа к выходу. Однако для обучения моделей может также применяться метод обратного распространения ошибки, когда данные передаются в противоположном направлении — от выхода к входу. Метод обратного распространения ошибки позволяет вычислить и объяснить ошибки, связанные с каждым нейроном, что позволяет скорректировать и адаптировать параметры модели соответствующим образом.
Виды нейронных сетей
Нейронные сети можно разделить на несколько видов, в зависимости от целевого назначения. Вот список наиболее распространенных видов нейронных сетей, имеющих практическое применение:
Персептрон — первая нейронная сеть, созданная Фрэнком Розентблаттом в 1958 году. Она содержит один нейрон и представляет собой простейшую форму нейронной сети:
Эта статья посвящена в основном нейронным сетям прямого распространения или многослойным персептронам (MLP). Они состоят из следующих слоев: входные данные, один или несколько скрытых слоев и выходные данные. Хотя такие нейронные сети формально относятся к категории MLP, фактически они состоят из сигмоидальных нейронов, а не персептронов, так как большинство реальных задач нелинейны. Данные, поступающие в эти модели, используются для обучения; они лежат в основе алгоритмов компьютерного зрения, обработки данных на естественном языке и других нейронных сетей.
Сверточные нейронные сети (CNN) похожи на сети прямого распространения, однако они, как правило, применяются для распознавания изображений, выявления закономерностей и/или компьютерного зрения. Для обнаружения закономерностей в изображениях с помощью таких сетей применяются законы линейной алгебры, в частности правила перемножения матриц.
Рекуррентные нейронные сети (RNN) имеют в своем составе обратные связи. Такие алгоритмы обучения используются в основном для временных рядов данных с целью прогнозирования будущих событий, например стоимости акций на фондовых биржах или объема продаж.
Сравнение нейронных сетей и глубокого обучения
В обычном разговоре термины «глубокое обучение» и «нейронные сети» могут использоваться как синонимы, загоняя собеседников в тупик. Поэтому стоит отметить, что понятие «глубина» в «глубоком обучении» характеризует лишь количество слоев нейронной сети. Нейронную сеть, в составе которой более трех слоев (включая слой входных данных и слой выходных данных), можно отнести к алгоритмам глубокого обучения. Нейронная сеть с двумя-тремя уровнями считается простой нейронной сетью.
Для лучшего понимания разницы между нейронными сетями и другими разновидностями искусственного интеллекта, например машинным обучением, рекомендуем прочитать публикацию в блоге «Сравнение искусственного интеллекта, машинного обучения, глубокого обучения и нейронных сетей».
История возникновения нейронных сетей
История нейронных сетей намного длиннее, чем принято считать. Сама идея «способной к мышлению системы» возникла еще в Древней Греции, и популярность нейронных сетей менялась с течением времени. Мы же сосредоточимся на ключевых событиях современной эволюции:
1943: Уоррен Маккалок и Уолтер Питтс опубликовали работу «Логическое исчисление идей, относящихся к нервной деятельности» (внешняя ссылка, PDF, 1 МБ). Целью данного исследования было изучение работы человеческого мозга, а именно: создание сложных моделей путем передачи сигналов клетками мозга или нейронами. Одной из главных идей, возникших в ходе данного исследования, стала аналогия между нейронами с двоичным пороговым значением и булевской логикой (значения 0/1 или утверждения истина/ложь).
1958: Фрэнк Розенблатт в своем исследовании «Персептрон: вероятностная модель хранения и организации информации в головном мозге» (внешняя ссылка, PDF, 1,6 МБ) описал модель персептрона. Он развил идеи Маккалока и Питтса, добавив в формулу весовые коэффициенты. На компьютере IBM 704 Розенблатт смог обучить систему распознавать карточки, маркированные слева и справа.
1974: первым ученым на территории США, описавшим в своей диссертации (внешняя ссылка, PDF, 8,1 МБ) использование алгоритма обратного распространения ошибки в нейронных сетях, стал Пол Вербос, хотя развитием этой идеи занимались многие исследователи.
1989: Янн Лекун опубликовал статью (внешняя ссылка, PDF, 5,7 МБ), в которой было описано практическое использование ограничений обратного распространения ошибки и интеграция в архитектуру нейронной сети для обучения алгоритмов. В данном исследовании нейронная сеть успешно обучилась распознавать рукописные символы почтового индекса, предоставленные Почтовой службой США.
Нейронные сети и IBM Cloud
Компания IBM стоит у истоков развития ИИ-технологий и нейронных сетей, о чем свидетельствуют появление и эволюция IBM Watson. Watson — надежное решение для крупных предприятий, которым требуется внедрить передовые технологии глубокого обучения и обработки данных на естественном языке в свои системы, опираясь на проверенный многоуровневый подход к разработке и реализации ИИ.
Архитектура UIMA (Apache Unstructured Information Management Architecture) и программное обеспечение IBM DeepQA, лежащие в основе Watson, позволяют интегрировать в приложения мощные функции глубокого обучения. С помощью таких инструментов, как IBM Watson Studio, ваше предприятие сможет эффективно перенести ИИ-проекты с открытым исходным кодом в рабочую среду с возможностью развертывания и выполнения моделей в любой облачной среде.
Более подробная информация о том, как приступить к использованию технологии глубокого обучения, приведена на страницах IBM Watson Studio и Deep Learning service.
Получите IBMid и создайте учетную запись IBM Cloud.
Факультет информационных технологий и программирования Университет ИТМО
Факультет информационных технологий и программирования (ФИТиП) входит в структуру Мегафакультета трансляционных информационных технологий. В 1991 году организаторы факультета информационных технологий и программирования профессора В.Н. Васильев и В.Г. Парфенов поставили перед собой задачу создания специализированного компьютерного факультета, претендующего на роль одного из ведущих в мире. В настоящее время факультет входит в группу двадцати лучших компьютерных факультетов мира.
Сотрудники, студенты и аспиранты факультета внесли весомый вклад в завоевании Университетом ИТМО пятьдесят шестого места в предметном рейтинге Times Higher Education World University Rankings по компьютерным технологиям и науке.
Факультет является признанным мировым лидером в области подготовки специалистов по разработке программного обеспечения. Среди преподавателей факультета – восемь лауреатов Премий Президента и Правительства России в области образования, среди которых – доцент А.С. Станкевич, признанный лучшим педагогом в мире в области олимпиадного программирования. Ежегодно преподаватели факультета проводят занятия по программированию и тренировочные сессии в ведущих зарубежных университетах США, Западной Европы и Китая.
На факультете работают уважаемые преподаватели: Г.А.Корнеев, П.Ю.Маврин, М.В.Буздалов, К.П.Кохась, Р.А.Елизаров, Н.Н. Нигматуллин.
Благодаря успехам студентов факультета, Университет ИТМО возглавляет многочисленные мировые и национальные рейтинги по направлению «Программирование», в которых, в отличие от академических рейтингов вузов, учитывается и анализируется умение студентов программировать.
С 2009 года Университет ИТМО возглавляет мировой рейтинг, составляемый по результатам выступлений вузов в командном студенческом чемпионате мира по программированию ACM ICPC. На факультете учится Геннадий Короткевич, занимающий первое место в рейтинге сильнейших олимпиадных программистов мира.
По качественному составу студентов факультет занимает первое место в России. В 2016 году на бюджет было принято 245 первокурсников со средним баллом ЕГЭ, превышающим 97 баллов, 150 из которых являются победителями и призерами олимпиад по математике и информатике.
На факультете базируются четыре международных научно-исследовательских центра, в которых работают ведущие иностранные и российские ученые, а также более ста российских молодых исследователей занимаются научной деятельностью в таких актуальных областях, как технологии программирования, нейронные сети, машинное обучения, генетические алгоритмы, биоинформатика, социо-киберфизические системы, системы искусственного интеллекта. Ежегодно публикуются более 200 статей в высокорейтинговых мировых научных изданиях и трудах ведущих международных конференций.
Действует большое число программ совместных аспирантур, после окончания которых защищаются российская кандидатская диссертация и зарубежная PhD, с рядом ведущих мировых университетов из TOP100 и TOP400, таких как:
Среди студентов факультета развиты инновационная и предпринимательская деятельности. Существующая в Университете ИТМО инфраструктура и схема организации этой работы признана одной из лучших в России.
Выпускники факультета организовали десятки компаний. Широкую международную известность получили такие их разработки, как язык Kotlin, база данных MemSQL, система контроля версий VisualSVN.
Средний возраст преподавателей факультета – 33 года, на факультете преподают более 30 сотрудников ведущих компьютерных компаний.
Факультет сотрудничает с ведущими российскими и зарубежными компаниями-разработчиками программного обеспечения: Яндекс, Mail.ru Group, JetBrains, ВК, TRANSAS. Oracle, Devexperts, Yota.
Выпускники факультета: Артём Астафуров, вице-президент компании DataArt; Михаил Бабушкин, Станислав Столяр, Роман Елизаров, Артём Козырев, создатели компании DexExperts; Андрей Бреслав, автор языка Kotlin;Дмитрий Гориловский, автор патента на YotaPhone; Фёдор Царёв, руководитель петербургского отделения компании World Quant; Никита Шамгунов, сооснователь компании MemSQL; Данил Шопырин, основатель компании VisualSVN; Александр Штучкин, Евгений Южаков, Тимофей Бородин, разработчики первого в мире коммуникатора WiMax Yota.
Факультет возглавляет лидирующую тройку российских компьютерных факультетов по уровню заработной платы выпускников. Выпускники Университета ИТМО вошли в топ самых высокооплачиваемых IT-специалистов по версии Superjob.
Факультет предоставляет уникальные возможности для того, чтобы испытать свои силы в разных направлениях профессиональной деятельности, выбрать из них наиболее подходящее для себя, а также сформировать круг знакомых из будущих успешных профессионалов высокой квалификации. Такой круг, как показывает мировая практика, является необходимым условием развития профессиональной карьеры.
Для поддержки талантов факультет организует олимпиады, такие как ВКОШП, ИОИП, NEERC, Открытая олимпиада школьников «Информационные технологии», Открытая олимпиада школьников по математике, Russian Code Cup (совместно с Mail.Ru Group), интернет-олимпиады школьников.
Страница не найдена
К сожалению, страница, которую вы искали на веб-сайте AAAI, не находится по URL-адресу, который вы щелкнули или ввели:
https://www. aaai.org/papers/aaai/1994/aaai94-134.pdf
Если указанный выше URL-адрес заканчивается на «.html», попробуйте заменить «.html:» на «.php» и посмотрите, решит ли это проблему.
Если вы ищете конкретную тему, попробуйте следующие ссылки или введите тему в поле поиска на этой странице:
- Выберите темы AI, чтобы узнать больше об искусственном интеллекте.
- Чтобы присоединиться или узнать больше о членстве в AAAI, выберите «Членство».
- Выберите «Публикации», чтобы узнать больше о AAAI Press и журналах AAAI.
- Для рефератов (а иногда и полного текста) технических документов по ИИ выберите Библиотека
- Выберите AI Magazine, чтобы узнать больше о флагманском издании AAAI.
- Чтобы узнать больше о конференциях и встречах AAAI, выберите Conferences
- Для ссылок на симпозиумы AAAI выберите «Симпозиумы».
- Для получения информации об организации AAAI, включая ее должностных лиц и сотрудников, выберите «Организация».
Помогите исправить страницу, которая вызывает проблему
Интернет-страница
, который направил вас сюда, должен быть обновлен, чтобы он больше не указывал на эту страницу. Вы поможете нам избавиться от старых ссылок? Напишите веб-мастеру ссылающейся страницы или воспользуйтесь его формой, чтобы сообщить о неработающих ссылках. Это может не помочь вам найти нужную страницу, но, по крайней мере, вы можете избавить других людей от неприятностей. Большинство поисковых систем и каталогов имеют простой способ сообщить о неработающих ссылках.
Если это кажется уместным, мы были бы признательны, если бы вы связались с веб-мастером AAAI, указав, как вы сюда попали (т. Е. URL-адрес страницы, которую вы искали, и URL-адрес ссылки, если таковой имеется). Спасибо!
Содержание сайта
К основным разделам этого сайта (и некоторым популярным страницам) можно перейти по ссылкам на этой странице. Если вы хотите узнать больше об искусственном интеллекте, вам следует посетить страницу AI Topics. Чтобы присоединиться или узнать больше о членстве в AAAI, выберите «Членство».Выберите «Публикации», чтобы узнать больше о AAAI Press, AI Magazine, и журналах AAAI. Чтобы получить доступ к цифровой библиотеке AAAI, содержащей более 10 000 технических статей по ИИ, выберите «Библиотека». Выберите Награды, чтобы узнать больше о программе наград и наград AAAI. Чтобы узнать больше о конференциях и встречах AAAI, выберите «Встречи». Для ссылок на программные документы, президентские обращения и внешние ресурсы ИИ выберите «Ресурсы». Для получения информации об организации AAAI, включая ее должностных лиц и сотрудников, выберите «О нас» (также «Организация»).Окно поиска, созданное Google, будет возвращать результаты, ограниченные сайтом AAAI.
границ | От редакции: Spiking Neural Network Learning, Benchmarking, Programming and Executing
Введение
Нейронная сеть с импульсами (SNN), тип нейронной сети, вдохновляемой мозгом, имитирует биологический мозг, в частности, его нейронные коды, нейродинамику и схемы. SNN вызвали большой интерес как в сообществе искусственного интеллекта (AI), так и в неврологии, учитывая их большой потенциал в биологически реалистичном моделировании человеческого познания и разработке энергоэффективного аппаратного обеспечения машинного обучения, управляемого событиями (Pei et al., 2019; Рой и др., 2019). Значительный прогресс был достигнут в широком спектре областей искусственного интеллекта, таких как обработка изображений, распознавание речи и машинный перевод. Они во многом обусловлены развитием искусственных нейронных сетей (ИНС) в теориях систематического обучения, явных тестах производительности с различными задачами и наборами данных, дружественными инструментами программирования [например, TensorFlow (Abadi et al., 2016) и Pytorch (Paszke et al. , 2019) инструменты машинного обучения] и эффективные платформы обработки [например, графический процессор (GPU) и тензорный процессор (TPU) (Jouppi et al., 2017)]. Для сравнения, SNN все еще находятся на ранней стадии в этих аспектах. Чтобы в дальнейшем использовать преимущества SNN и привлечь больше исследователей для участия в этой области, мы предложили тему исследования на границах в нейробиологии, чтобы обсудить основные проблемы и будущие перспективы SNN, уделяя особое внимание ее «алгоритмам обучения, сравнительному анализу, программированию и выполнению. . » Мы уверены, что SNN будут играть решающую роль в разработке энергоэффективных устройств машинного обучения за счет совместной разработки алгоритмов и оборудования.
Эта тема исследования объединяет исследователей из разных дисциплин, чтобы представить свои недавние работы в SNN. Мы получили 22 заявки со всего мира и приняли 15 работ. Объем принятых статей охватывает алгоритмы обучения, эффективность моделей, инструменты программирования и нейроморфное оборудование.
Алгоритмы обучения
Алгоритмы обучения играют, пожалуй, самую важную роль в методах искусственного интеллекта. Алгоритмы машинного обучения, в частности алгоритмы для глубоких нейронных сетей (DNN), стали стандартом в широком спектре задач ИИ. Некоторые из наиболее распространенных алгоритмов обучения включают обратное распространение (Hecht-Nielsen, 1992), стохастический градиентный спуск (SGD) (Bottou, 2012) и оптимизацию ADAM (Kingma and Ba, 2014). Другие методы, такие как пакетная нормализация (Ioffe and Szegedy, 2015) и распределенное обучение (Dean et al., 2012), облегчают обучение в DNN и позволяют применять их в различных реальных приложениях. Для сравнения, алгоритмов и методов обучения SNN относительно меньше. Существующие алгоритмы обучения SNN делятся на три категории: алгоритмы обучения без учителя, такие как исходная пластичность, зависящая от времени всплеска (STDP) (Querlioz et al., 2013; Диль и Кук, 2015; Kheradpisheh et al., 2016), косвенное контролируемое обучение, такое как преобразование ANN в SNN (O’Connor et al., 2013; Pérez-Carrasco et al., 2013; Diehl et al., 2015; Sengupta et al., 2019) и прямое контролируемое обучение, такое как пространственно-временное обратное распространение (Wu et al., 2018, 2019a, b). Мы отмечаем, что прогресс в исследованиях STDP включает введение сигнала вознаграждения или наблюдения, такого как время всплеска, которое в сочетании с этим третьим фактором диктует изменения веса (Paugam-Moisy et al., 2006; Franosch et al., 2013). Несмотря на достигнутый прогресс, ни один алгоритм пока не может эффективно обучить очень глубокие SNN, что стало чуть ли не святым Граалем в нашей области. Ниже мы кратко резюмируем принятые алгоритмы в этой теме исследования.
Вдохновленные обонятельной системой млекопитающих, Бортакур и Клеланд разработали модель SNN, обученную с использованием STDP для восстановления и идентификации сигнала. Это широко применимо к входам матрицы датчиков. Луо и др. предложить новый механизм обновления весов, который регулирует синаптические веса, приводя к первому неправильному временному интервалу выходных пиков для точной классификации входных цепочек пиков с чувствительной ко времени информацией.He et al. разделите процесс обучения (силовой тренировки) на две фазы: фазу формирования структуры с использованием правила Хебба и фазу параметрической тренировки с использованием STDP и обучения с подкреплением, чтобы сформировать систему ассоциативной памяти на основе SNN. В отличие от простой тренировки синаптических весов, Wang et al. предложить обучение как синаптических весов, так и задержек с использованием градиентного спуска, чтобы добиться лучшей производительности. Основываясь на структурно фиксированной небольшой SNN с редкими повторяющимися связями, Ponghiran et al.используйте Q-обучение для обучения только своего выходного слоя, чтобы достичь производительности человеческого уровня в сложных задачах обучения с подкреплением, таких как игры Atari. Их исследования показывают, что небольшая случайная повторяющаяся сеть SNN может обеспечить эффективную с вычислительной точки зрения альтернативу современным сетям глубокого обучения с подкреплением с несколькими уровнями обучаемых параметров. Вышеупомянутые работы сделали хороший прогресс в направлении более эффективных алгоритмов обучения SNN. Мы уверены, что в будущем мы добьемся дальнейшего прогресса в этой области.
Эффективность модели
В последние годы были предложены аппаратно-ориентированные методы сжатия DNN, которые обеспечивают значительную экономию памяти и аппаратное ускорение (Han et al., 2015a, 2016; Zhang et al., 2016; Huang et al., 2017; Aimar et al., 2018). В настоящее время предлагается множество методов сжатия, которые обеспечивают компромисс между эффективностью обработки и точностью приложения (Han et al., 2015b; Novikov et al., 2015; Zhou et al., 2016). Такой подход также прижился при разработке ускорителей SNN (Deng et al., 2019), со следующим вкладом в эту тему исследования. Афшар и др. исследовать, как аппаратно эффективный вариант STDP может использоваться для извлечения функций на основе событий. Используя строгую структуру тестирования, оценивается ряд пространственно-временных ядер с различными методами распада поверхности, функциями распада, размерами восприимчивого поля, номерами признаков и внутренними классификаторами. Это подробное исследование дает полезную информацию и эвристику в отношении компромисса между производительностью и сложностью при использовании правила STDP.Pedroni et al. изучить влияние различных схем синаптических таблиц связности на хранение веса и обновления STDP для крупномасштабных нейроморфных систем. Основываясь на своем анализе, они представляют альтернативную формулировку STDP через механизм отложенного причинно-следственного обновления, который обеспечивает эффективное хранение веса и доступ как для полной, так и для разреженной связи.
Помимо сложности модели, несколько других статей сосредоточены на прямом сжатии SNN. Сурес и Кудитипуди предлагают Deep-LSM, комбинацию случайно соединенных скрытых слоев и неконтролируемых уровней «победитель получает все» для захвата сетевой динамики, за которой следует слой считывания с модулированным вниманием для классификации.Связи между скрытыми слоями и слоями «победитель получает все» частично обучаются с помощью STDP. Их модель SNN применяется в задаче распознавания видео активности от первого лица, обеспечивая высочайшую производительность с памятью> 90% и экономией операций по сравнению с долговременной памятью (LSTM). На основе единого полностью подключенного уровня с правилом обучения STDP Shi et al. предложите метод мягкой обрезки, который устанавливает часть весов на нижнюю границу во время обучения, эффективно достигая> 75% обрезки.Сринивасан и Рой реализуют сверточные слои с пиками, состоящие из ядер бинарных весов, которые обучаются с использованием вероятностного STDP, а также полносвязные слои без пиков, которые обучаются с использованием градиентного спуска. Предложен остаточный сверточный SNN, который обеспечивает сжатие модели> 20x.
Инструменты программирования
Инструменты программированиябыли одним из ключевых компонентов, способствующих развитию исследований ИНС, примерами которых являются Theano (Al-Rfou et al., 2016), TensorFlow (Abadi et al., 2016), Caffe (Jia et al., 2014) и Pytorch (Paszke et al., 2019), MXNet (Chen et al., 2015), Keras (Chollet, 2015). Эти удобные для пользователя инструменты программирования позволяют исследователям создавать и обучать крупномасштабные ИНС, используя только базовые ноу-хау в области программирования. Для сравнения, инструменты программирования для SNN довольно ограничены. Насколько нам известно, только SpiNNaker (Furber et al., 2014), BindsNET (Hazan et al., 2018) и PyNN (Davison et al., 2009) предоставляют базовый программный интерфейс для поддержки простых и небольших симуляций SNN. .Обычно исследователи должны строить SNN с нуля, что может занять много времени и потребовать значительно большего количества ноу-хау в области программирования. Таким образом, разработка удобных инструментов программирования для эффективного развертывания крупномасштабных сетей SNN необходима для развития нашей области. В этой теме исследования была предложена среда для высокоскоростного моделирования SNN с открытым исходным кодом, основанная на PyTorch. SpykeTorch (Mozafari et al.) Моделирует сверточные SNN с максимум одним импульсом на нейрон (схема рангового кодирования) и правилами обучения на основе STDP.Хотя инструменты программирования для SNN все еще находятся в зачаточном состоянии, мы считаем, что необходимо провести дополнительные исследования, чтобы обучение SNN могло приблизиться к эффективности обучения ANN.
Нейроморфное оборудование
Последние достижения в моделировании SNN in-silico , продемонстрированные Neurogrid из Стэнфордского университета (Benjamin et al., 2014), BrainScales из Гейдельбергского университета (Schemmel et al., 2012), SpiNNaker из Манчестерского университета, Тианжик, США. Университет Цинхуа (Пей и др., 2019), TrueNorth от IBM (Akopyan et al., 2015) и Intel Loihi (Davies et al., 2018) свидетельствуют о большом потенциале аппаратной реализации SNN. В этой теме исследования Shukla et al. повторно смоделировать крупномасштабные CNN, чтобы смягчить аппаратные ограничения, и реализовать их на IBM TrueNorth. Была продемонстрирована CNN, используемая для обнаружения и подсчета автомобилей, с разумной точностью по сравнению с CNN, обученной на GPU, но с гораздо меньшим энергопотреблением. Bohnstingl et al. реализовать на нейроморфном чипе сеть обучения для обучения, которая ускоряет процесс обучения за счет извлечения абстрактных знаний из предшествующего опыта.Помимо обычных КМОП-схем, в этой теме исследования также изучались новые устройства, такие как мемристоры. Guo et al. предложить алгоритм жадного обучения на основе STDP для сетей SNN, чтобы снизить уровни веса и повысить устойчивость к неидеальным устройствам. Они демонстрируют онлайн-обучение в системе резистивной оперативной памяти (RRAM) с неидеальным поведением. Fang et al. предложить обобщенную модель интеллекта роя на SNN: SI-SNN. SNN реализованы как агенты в роевом интеллекте с интерактивной модуляцией и синхронизацией.Они реализуют такую нейродинамику на аппаратной платформе на основе сегнетоэлектрического полевого транзистора (FeFET) для решения задач оптимизации с высокой производительностью и эффективностью.
Выводы
В заключение, предполагается, что SNN обеспечивают превосходную производительность при обработке сложной, разреженной и зашумленной пространственно-временной информации с высокой энергоэффективностью, используя нейронную динамику в режиме, управляемом событиями. Связь, управляемая событиями, особенно привлекательна для создания энергоэффективных систем искусственного интеллекта с вычислениями в памяти, которые будут играть важную роль в повсеместном интеллекте.Исследования SNN продолжаются, и можно ожидать гораздо большего прогресса в его алгоритмах обучения, среде тестирования, инструментах программирования и эффективном оборудовании. Благодаря междисциплинарному обмену идеями и совместным исследованиям мы надеемся создать действительно энергоэффективную и интеллектуальную машину. Эта тема исследования — лишь небольшой шаг в этом направлении; мы с нетерпением ждем более прорывных идей, которые позволят отличить SNN и нейроморфные вычисления от основных подходов к машинному обучению в ближайшем будущем.
Авторские взносы
Все перечисленные авторы внесли существенный, прямой и интеллектуальный вклад в работу и одобрили ее к публикации.
Финансирование
Эта работа частично поддержана Национальной программой ключевых исследований и разработок Китая (№ 2018AAA0102600 и 2018YFE0200200), Пекинской академией искусственного интеллекта (BAAI), Инициативной программой научных исследований, а также грантом Института Го Цяна, Университета Цинхуа и ключевыми научными организациями. научно-исследовательский проект технологических инноваций Министерства образования и Специального инновационного фонда Цинхуа-Фошань.
Конфликт интересов
Авторы заявляют, что исследование проводилось при отсутствии каких-либо коммерческих или финансовых отношений, которые могут быть истолкованы как потенциальный конфликт интересов.
Список литературы
Abadi, M., Barham, P., Chen, J., Chen, Z., Davis, A., Dean, J., et al. (2016). «Tensorflow: система для крупномасштабного машинного обучения», , 12-й симпозиум {USENIX} по проектированию и внедрению операционных систем ({OSDI} 16), (Саванна, Джорджия), 265–283.
Google Scholar
Аймар А., Мостафа Х., Калабрезе Э., Риос-Наварро А., Тапиадор-Моралес Р., Лунгу И.-А. и др. (2018). Nullhop: гибкий ускоритель сверточной нейронной сети, основанный на разреженных представлениях карт функций. IEEE Trans. Neural Netw. Учиться. Syst. 30, 644–656. DOI: 10.1109 / TNNLS.2018.2852335
PubMed Аннотация | CrossRef Полный текст | Google Scholar
Акопян, Ф., Савада, Дж., Кэссиди, А., Альварес-Икаса, Р., Артур, Дж., Меролла, П. и др. (2015). Труенорт: дизайн и набор инструментов программируемого нейросинаптического чипа мощностью 65 МВт и 1 миллион нейронов. IEEE Trans. Comput. Помощь Дес. Интегр. Circuits Syst. 34, 1537–1557. DOI: 10.1109 / TCAD.2015.2474396
CrossRef Полный текст | Google Scholar
Аль-Рфу, Р., Ален, Г., Альмахайри, А., Ангермюллер, К., Бахданау, Д., Баллас, Н., и др. (2016). Theano: среда Python для быстрого вычисления математических выражений. arXiv [препринт] arXiv : 1605.02688.
Google Scholar
Бенджамин, Б. В., Гао, П., Маккуинн, Э., Чоудхари, С., Чандрасекаран, А. Р., Буссат, Ж.-М. и др. (2014). Neurogrid: смешанная аналого-цифровая многокристальная система для крупномасштабного нейронного моделирования. Proc. IEEE 102, 699–716. DOI: 10.1109 / JPROC.2014.2313565
CrossRef Полный текст | Google Scholar
Ботту, Л. (2012). «Уловки стохастического градиентного спуска», в Neural Networks: Tricks of the Trade , eds G.Монтавон, Г. Б. Орр и К. Р. Мюллер (Берлин; Гейдельберг: Springer, 421–436.
)Google Scholar
Chen, T., Li, M., Li, Y., Lin, M., Wang, N., Wang, M., et al. (2015). Mxnet: гибкая и эффективная библиотека машинного обучения для разнородных распределенных систем. arXiv [препринт] arXiv : 1512.01274.
Google Scholar
Дэвис, М., Сриниваса, Н., Лин, Т.-Х., Чинья, Г., Цао, Ю., Чодай, С.Х., и др. (2018). Loihi: нейроморфный многоядерный процессор с обучением на кристалле. IEEE Micro 38, 82–99. DOI: 10.1109 / MM.2018.112130359
CrossRef Полный текст | Google Scholar
Дэвисон, А. П., Брюдерле, Д., Эпплер, Дж. М., Кремков, Дж., Мюллер, Э., Печевски, Д., и др. (2009). PyNN: общий интерфейс для симуляторов нейронных сетей. Фронт. Нейроинформ. 2:11. DOI: 10.3389 / нейро.11.011.2008
PubMed Аннотация | CrossRef Полный текст | Google Scholar
Дин, Дж., Коррадо, Г., Монга, Р., Чен, К., Девин, М., Мао М. и др. (2012). «Крупномасштабные распределенные глубокие сети», в книге Advances in Neural Information Processing Systems (Lake Tahoe, NV), 1223–1231.
Google Scholar
Deng, L., Wu, Y., Hu, Y., Liang, L., Li, G., Hu, X., et al. (2019). Комплексное сжатие SNN с использованием оптимизации ADMM и регуляризации активности. arXiv [препринт] arXiv : 1911.00822.
Google Scholar
Дил, П. У., Нил, Д., Бинас, Дж., Кук, М., Лю, С.-C., И Пфайффер, М. (2015). «Быстрая классификация и высокая точность пиков глубоких сетей за счет балансировки веса и порога», в Международная объединенная конференция по нейронным сетям (IJCNN) 2015 г., (Килларни: IEEE), 1–8.
Google Scholar
Франош, Дж. М. П., Урбан, С., и ван Хеммен, Дж. Л. (2013). Управляемая пластичность, зависящая от времени спайков: пространственно-временное правило обучения нейронов для аппроксимации функций и принятия решений. Neural Comput. 25, 3113–3130.DOI: 10.1162 / NECO_a_00520
PubMed Аннотация | CrossRef Полный текст | Google Scholar
Фурбер, С. Б., Галлуппи, Ф., Темпл, С., и Плана, Л. А. (2014). Проект спинакера. Proc. IEEE 102, 652–665. DOI: 10.1109 / JPROC.2014.2304638
CrossRef Полный текст | Google Scholar
Хан, С., Лю, X., Мао, Х., Пу, Дж., Педрам, А., Горовиц, М.А., и др. (2016). EIE: эффективный механизм вывода на сжатой глубокой нейронной сети. ACM SIGARCH Comput.Архитектор. Новости 44, 243–254. DOI: 10.1145 / 3007787.3001163
CrossRef Полный текст | Google Scholar
Хан, С., Мао, Х. и Далли, В. Дж. (2015a). Глубокое сжатие: сжатие глубоких нейронных сетей с сокращением, обученным квантованием и кодированием Хаффмана. arXiv [препринт] arXiv : 1510.00149.
Google Scholar
Хан, С., Пул, Дж., Тран, Дж., И Далли, В. (2015b). «Изучение весов и связей для эффективной нейронной сети», в Advances in Neural Information Processing Systems , 1135–1143.
Google Scholar
Hazan, H., Saunders, D. J., Khan, H., Patel, D., Sanghavi, D. T., Siegelmann, H. T., et al. (2018). Bindsnet: ориентированная на машинное обучение библиотека нейронных сетей на Python. Фронт. Нейроинформ. 12:89. DOI: 10.3389 / fninf.2018.00089
PubMed Аннотация | CrossRef Полный текст | Google Scholar
Hecht-Nielsen, R. (1992). «Теория нейронной сети обратного распространения», в Neural Networks for Perception , ed H.Векслер (Эльзевир), 65–93.
Google Scholar
Хуанг, Х., Ни, Л., Ван, К., Ван, Ю., и Ю, Х. (2017). Высокопараллельный и энергоэффективный трехмерный многослойный ускоритель CMOS-RRAM для тензорной нейронной сети. IEEE Trans. Nanotechnol. 17, 645–656. DOI: 10.1109 / TNANO.2017.2732698
CrossRef Полный текст | Google Scholar
Иоффе С., Сегеди К. (2015). Пакетная нормализация: ускорение глубокого обучения сети за счет уменьшения внутреннего ковариантного сдвига. arXiv [препринт] arXiv : 1502.03167.
Google Scholar
Цзя Ю., Шелхамер Э., Донахью Дж., Караев С., Лонг Дж., Гиршик Р. и др. (2014). «Caffe: сверточная архитектура для быстрого встраивания функций», в Proceedings of the 22nd ACM International Conference on Multimedia (Орландо, Флорида), 675–678.
Google Scholar
Джуппи, Н. П., Янг, К., Патил, Н., Паттерсон, Д., Агравал, Г., Баджва, Р. и др. (2017). «Анализ производительности блока тензорной обработки в центре обработки данных», в Proceedings of the 44th Annual International Symposium on Computer Architecture (Toronto, ON), 1–12.
Google Scholar
Херадпишех, С. Р., Ганджтабеш, М., и Маскелье, Т. (2016). Неконтролируемое изучение визуальных функций на основе биологических исследований приводит к надежному инвариантному распознаванию объектов. Нейрокомпьютинг 205, 382–392. DOI: 10.1016 / j.neucom.2016.04.029
CrossRef Полный текст | Google Scholar
Кингма Д. П. и Ба Дж. (2014). Адам: метод стохастической оптимизации. arXiv [препринт] arXiv : 1412.6980.
Google Scholar
Новиков, А., Подоприхин Д., Осокин А., Ветров Д. П. (2015). «Тензорные нейронные сети», в Advances in Neural Information Processing Systems (Montreal, QC), 442–450.
Google Scholar
О’Коннор, П., Нил, Д., Лю, С.-К., Дельбрук, Т., и Пфайффер, М. (2013). Классификация в реальном времени и объединение датчиков с разветвленной сетью глубоких убеждений. Фронт. Neurosci. 7: 178. DOI: 10.3389 / fnins.2013.00178
PubMed Аннотация | CrossRef Полный текст | Google Scholar
Пашке, А., Гросс, С., Масса, Ф., Лерер, А., Брэдбери, Дж., Чанан, Г. и др. (2019). «PyTorch: императивная высокопроизводительная библиотека глубокого обучения», в книге Advances in Neural Information Processing Systems (Ванкувер, Британская Колумбия), 8024–8035.
Google Scholar
Погам-Мойзи, Х., Мартинес, Р., и Бенжио, С. (2006). Подход к обучению с учителем, основанный на STDP и полихронизации в нейронных сетях с пиками , IDIAP, EPFL.
Google Scholar
Пей, Дж., Deng, L., Song, S., Zhao, M., Zhang, Y., Wu, S., et al. (2019). На пути к искусственному интеллекту с гибридной архитектурой микросхем Tianjic. Природа 572, 106–111. DOI: 10.1038 / s41586-019-1424-8
PubMed Аннотация | CrossRef Полный текст | Google Scholar
Перес-Карраско, Дж. А., Чжао, Б., Серрано, К., Ача, Б., Серрано-Готарредона, Т., Чен, С. и др. (2013). Преобразование от систем видения, управляемых кадрами, к системам машинного зрения, управляемым событиями без кадров, с помощью низкоскоростного кодирования и обработки совпадений — приложение к ConvNets с прямой связью. IEEE Trans. Pattern Anal. Мах. Intell. 35, 2706–2719. DOI: 10.1109 / TPAMI.2013.71
PubMed Аннотация | CrossRef Полный текст | Google Scholar
Кверлиоз Д., Бихлер О., Дольфус П. и Гамрат К. (2013). Невосприимчивость к вариациям устройств в нейронной сети с мемристическими наноустройствами. IEEE Trans. Nanotechnol. 12, 288–295. DOI: 10.1109 / TNANO.2013.2250995
CrossRef Полный текст | Google Scholar
Шеммель, Дж., Грюбль, А., Хартманн, С., Кононов, А., Майр, К., Мейер, К. и др. (2012). «Живая демонстрация: уменьшенная версия нейроморфной системы в масштабе пластин мозга», в , 2012 IEEE International Symposium on Circuits and Systems (Seoul: IEEE), 702–702.
Google Scholar
Сенгупта, А., Е, Ю., Ван, Р., Лю, К., и Рой, К. (2019). Углубляемся в пики нейронных сетей: vgg и остаточные архитектуры. Фронт. Neurosci. 13:95. DOI: 10.3389 / fnins.2019.00095
PubMed Аннотация | CrossRef Полный текст | Google Scholar
Ву, Дж., Чуа, Ю., Чжан, М., Ян, К., Ли, Г., и Ли, Х. (2019a). «Нейронная сеть с глубокими пиками с правилом обучения, основанным на подсчете пиков», в 2019 International Joint Conference on Neural Networks (IJCNN) (Budapest: IEEE), 1–6.
Google Scholar
У Ю., Дэн, Л., Ли, Г., Чжу, Дж., И Ши, Л. (2018). Пространственно-временное обратное распространение для обучения высокопроизводительных нейронных сетей с пиками. Фронт. Neurosci. 12: 331. DOI: 10.3389 / fnins.2018.00331
PubMed Аннотация | CrossRef Полный текст | Google Scholar
У Ю., Дэн, Л., Ли, Г., Чжу, Дж., Се, Ю., и Ши, Л. (2019b). «Прямое обучение для наращивания нейронных сетей: быстрее, больше, лучше», в материалах Proceedings of the AAAI Conference on Artificial Intelligence (Гонолулу, Гавайи), 1311–1318.
Google Scholar
Zhang, S., Du, Z., Zhang, L., Lan, H., Liu, S., Li, L., et al.(2016). «Cambricon-x: ускоритель для разреженных нейронных сетей», 2016 49-й ежегодный международный симпозиум IEEE / ACM по микроархитектуре (MICRO) (Тайбэй: IEEE), 1–12.
Google Scholar
Чжоу, С., Ву, Ю., Ни, З., Чжоу, X., Вэнь, Х., и Цзоу, Ю. (2016). Dorefa-net: обучение сверточных нейронных сетей с низкой пропускной способностью и градиентами с низкой пропускной способностью. arXiv [препринт] arXiv : 1606.06160.
Google Scholar
deeplizard — не найдено
- YouTube
- Создать вопрос викторины
- Conv Demo
- Демо Max-Pool
- Премиум курс GAN НОВИНКА
- Профиль
- Выйти
- Авторизоваться
- Курсы
Курсы глубокого обучения
Основы машинного обучения и глубокого обучения Keras — API нейронной сети для глубокого обучения Python Программирование нейронных сетей — глубокое обучение с PyTorch Обучение с подкреплением — Целенаправленный интеллект Введение в генеративные состязательные сетиДругие курсы
Наука о данных — научитесь программировать для начинающих Торговля — Расширенные типы ордеров с Coinbase Waves — Платформа блокчейна Proof of Stake и DEX Zcash — блокчейн-платформа на основе конфиденциальности Steemit — социальная сеть на базе блокчейна Jaxx — интерфейс блокчейна и крипто-кошелек AWS — Управление EC2 Amazon Web Services - Код
- Коллективный разум
- Видеоблог
Черная дыра
- © deeplizard
- YouTube
- Видеоблог
- Коллективный разум
- Код
- Конфиденциальность
- Условия
keyboard_arrow_up
Объяснение первой нейронной сети для начинающих (с кодом) | Артур Арнкс
Создание собственной простой нейронной сети
Давайте создадим нейронную сеть с нуля с помощью Python (3.x в примере ниже).
import numpy, random, os
lr = 1 #learning rate
bias = 1 #value of bias
weights = [random.random (), random.random (), random.random ()] # генерируемые веса в списке (всего 3 веса для 2 нейронов и смещения)В начале программы просто определяются библиотеки и значения параметров и создается список, содержащий значения весов, которые будут изменены (это генерируется случайным образом).
def Персептрон (input1, input2, output):
outputP = input1 * weights [0] + input2 * weights [1] + bias * weights [2]
if outputP> 0: # функция активации (здесь Хевисайда)
outputP = 1
else :
outputP = 0
error = output - outputP
weights [0] + = error * input1 * lr
weights [1] + = error * input2 * lr
weights [2]). + = error * bias * lrЗдесь мы создаем функцию, которая определяет работу выходного нейрона.Он принимает 3 параметра (2 значения нейронов и ожидаемый результат). «OutputP» — это переменная, соответствующая выходу, выдаваемому перцептроном. Затем мы вычисляем ошибку, которая используется для изменения веса каждого соединения с выходным нейроном сразу после этого.
для i в диапазоне (50):
Персептрон (1,1,1) # Истинный или истинный
Персептрон (1,0,1) # Истинный или ложный
Персептрон (0,1,1) # Ложь или true
Perceptron (0,0,0) #False or falseМы создаем цикл, который заставляет нейронную сеть повторять каждую ситуацию несколько раз.Это этап обучения. Количество итераций выбирается в соответствии с желаемой точностью. Однако имейте в виду, что слишком большое количество итераций может привести к переобучению сети, из-за чего она будет слишком сосредотачиваться на обработанных примерах, поэтому она не сможет получить правильный результат в случае, если не увидит на этапе обучения.
Однако наш случай здесь немного особенный, поскольку есть только 4 возможности, и мы даем нейронной сети их все на этапе обучения. Предполагается, что перцептрон дает правильный результат, даже не видя случая, который он лечит.
x = int (input ())
y = int (input ())
outputP = x * weights [0] + y * weights [1] + bias * weights [2]
если outputP> 0: # функция активации
outputP = 1
else :
outputP = 0
print (x, "или", y, "is:", outputP)Наконец, мы можем попросить пользователя ввести значения чтобы проверить, работает ли перцептрон. Это этап тестирования.
В этом случае интересно использовать функцию активации Хевисайда, поскольку она возвращает все значения точно к 0 или 1, поскольку мы ищем ложный или истинный результат.Мы могли бы попробовать с сигмоидной функцией и получить десятичное число от 0 до 1, обычно очень близкое к одному из этих пределов.
outputP = 1 / (1 + numpy.exp (-outputP)) #sigmoid function
Мы также можем сохранить веса, которые только что рассчитала нейронная сеть, в файл, чтобы использовать их позже, не выполняя еще одну фазу обучения. Это делается для более крупного проекта, в котором эта фаза может длиться дни или недели.
Что такое НЕЙРОН? | НЕЙРОН
НЕЙРОН
Гибкий и мощный симулятор нейронов и сетей
NEURON — это среда моделирования для моделирования отдельных нейронов и нейронных сетей.Он предоставляет инструменты для удобного построения, управления и использования моделей с числовой точностью и эффективностью с точки зрения вычислений. Он особенно хорошо подходит для задач, которые тесно связаны с экспериментальными данными, особенно тех, которые связаны с клетками со сложными анатомическими и биофизическими свойствами.
Преимущества перед тренажёрами общего назначения
NEURON зародился в лаборатории Джона Мура в Университете Дьюка, где он и Майкл Хайнс начали свое сотрудничество по разработке программного обеспечения для моделирования для исследований в области нейробиологии.Он выиграл от разумного пересмотра и выборочного улучшения, руководствуясь отзывами растущего числа нейробиологов, которые использовали его для включения эмпирического моделирования в свои исследовательские стратегии.
Вычислительный механизмNEURON использует специальные алгоритмы, которые достигают высокой эффективности за счет использования структуры уравнений, описывающих свойства нейронов. Он имеет функции, специально предназначенные для удобного управления симуляциями и графического представления результатов реальных нейрофизиологических проблем, которые можно быстро и интуитивно понять.Вместо того, чтобы заставлять пользователей переформулировать свои концептуальные модели, чтобы они соответствовали требованиям симулятора общего назначения, NEURON разработан, чтобы позволить им напрямую работать со знакомыми концепциями нейробиологии. Следовательно, пользователи могут думать о биофизических свойствах мембраны и цитоплазмы, разветвленной архитектуре нейронов и эффектах синаптической связи между клетками.
Отделяет биологию от чисто вычислительных задач
С самого начала одной из целей разработки NEURON было помочь разработчикам моделей решать высокоуровневые исследовательские вопросы нейробиологии, не отвлекаясь на низкоуровневые математические или вычислительные задачи.Вот некоторые из стратегий, которые помогают приблизиться к этой цели.
Работа со знакомыми идиомами
Самая важная стратегия состоит в том, чтобы предложить пользователям то, что можно было бы назвать «естественным синтаксисом», который позволяет им указывать свойства модели на знакомых идиомах, вместо того, чтобы приводить кинетические схемы или дифференциальные уравнения в форме операторов на C или каком-либо другом универсальном языке. язык программирования. Возможно, наиболее ярким примером естественного синтаксиса в NEURON является понятие участка , который представляет собой непрерывный неразветвленный кабель (прямо аналог неразветвленного нейрита).Секции могут быть соединены вместе, образуя разветвленные деревья, и наделены свойствами, которые могут непрерывно меняться в зависимости от положения по их длине. Разделы позволяют исследователям представить анатомию нейронов, не разбираясь в уравнении кабеля. Они также легко поддаются манипулированию с помощью графических инструментов, таких как CellBuilder, для построения моделей и управления ими. Другие примеры естественного синтаксиса можно увидеть в языке программирования NMODL, а также в Linear Circuit Builder и Channel Builder (см. Расширяемую пользователем библиотеку биофизических механизмов ниже).
Спецификация модели, не зависящей от интегратора
NEURON предлагает несколько различных выбираемых пользователем методов численного интегрирования.
- Метод интегрирования по умолчанию — неявный метод Эйлера, который обеспечивает устойчивую стабильность и точность первого порядка по времени (достаточную для большинства приложений).
- Существует также метод Кранка-Николсона, который обеспечивает второй порядок точности при небольших дополнительных вычислительных затратах. Однако это подвержено числовым колебаниям, если dt слишком велико, имеются фиксаторы напряжения или состояния системы описываются алгебраическими уравнениями.
- Повышенная точность, более быстрое время выполнения, а иногда и то и другое могут быть достигнуты путем выбора адаптивного интегрирования, которое регулирует порядок интегрирования и временной шаг по мере необходимости, чтобы удовлетворить критерию локальной ошибки. По историческим причинам адаптивные интеграторы в NEURON обычно называются «CVODE»; фактический метод — это либо IDA (Hindmarsh and Taylor, 1999), либо CVODES (Hindmarsh and Serban, 2002), решение, которое принимается автоматически (т. е. не требует суждения пользователя) в зависимости от того, включает ли модель состояния, описываемые алгебраическими уравнениями. уравнения.
Пользователи могут переключаться между этими методами интеграции без необходимости переписывать спецификацию модели, потому что NEURON избегает специфичных для вычислений представлений биологических свойств. Это удобство важно, потому что решение, какой метод лучше всего подходит в той или иной ситуации, часто является эмпирическим вопросом. Дополнительные сведения о числовой интеграции в NEURON представлены в главе 4 книги NEURON Book (Carnevale and Hines, 2006).
Эффективная и безболезненная пространственная и временная дискретизация
Другая важная стратегия — позволить пользователям отложить или избежать явной спецификации пространственной и временной дискретизации.Подход NEURON к пространственной дискретизации, который отличает его от других инструментов моделирования, устраняет озабоченность по поводу отсеков. Этот подход состоит из двух компонентов:
- Каждая секция имеет свой собственный параметр дискретизации nseg , который определяет количество внутренних точек, в которых интегрируется дискретизированная форма уравнения кабеля, и может быть изменен после определения анатомических и биофизических свойств модели.
- Параметры и переменные, которые пространственно неоднородны, описываются в терминах нормализованного расстояния от одного конца секции, e.грамм. soma.v (0,5) означает мембранный потенциал на полпути между 0 и 1 концами секции сомы.
Кроме того, NEURON предоставляет инструменты, которые могут автоматически позаботиться о дискретизации. Численное моделирование моделей биологических нейронов может представлять особую проблему, потому что такие модели, как правило, включают механизмы, охватывающие широкий диапазон пространственных и временных масштабов, с переменными состояния, которые включают широкий диапазон величин. С помощью CellBuilder пользователи могут применять правило d_lambda (Hines and Carnevale 2001; стр.122 и след. в Carnevale and Hines 2006), чтобы автоматически назначать значения nseg на основе анатомических и биофизических свойств модели. Правило d_lambda также может применяться через произвольный код. Точно так же допуски ошибок, которые определяют размер временного шага (и порядок интеграции) во время адаптивной интеграции, могут быть автоматически скорректированы с помощью инструмента Absolute Tolerance Scale в графическом интерфейсе пользователя, который является частью инструмента VariableTimeStep.
Удобный пользовательский интерфейс
Переводчики
NEURON предлагает пользователям выбор языков программирования.Большая часть программирования была сделана с помощью hoc, интерпретируемого языка с синтаксисом, подобного C (Kernighan and Pike, 1984), который был расширен за счет включения функций, специфичных для области моделирования нейронов, реализации графического интерфейса и объектно-ориентированного программирования. Совсем недавно Python был принят в качестве альтернативного интерпретатора. Ко всем произвольным переменным, процедурам и функциям можно получить доступ из Python и наоборот. Это обеспечивает огромную степень гибкости для настройки анатомических и биофизических свойств моделей, определения внешнего вида графического интерфейса, управления симуляциями и построения графиков результатов.
Пользователи могут воспользоваться преимуществами мультипроцессоров или кластеров рабочих станций, чтобы ускорить до неприличия параллельные задачи, такие как оптимизация и исследование пространства параметров. Кроме того, сетевые модели и сложные модели отдельного нейрона могут быть распределены по нескольким процессорам для достижения почти линейного ускорения.
Графический интерфейс пользователя
Графический интерфейс пользователя по умолчанию может использоваться для создания и отработки моделей различной сложности.С помощью графического интерфейса пользователя можно генерировать результаты качества публикации без необходимости писать какой-либо программный код. Однако наиболее гибкая и эффективная стратегия — это сочетание произвольного программирования и графического интерфейса пользователя, чтобы использовать сильные стороны обоих подходов.
Многие инструменты с графическим интерфейсом пользователя разработаны как аналог биологического и лабораторного оборудования и очень удобны для начального исследовательского моделирования, настройки параметров, общего управления стимулами напряжения и тока, а также графического отображения переменных в зависимости от времени и положения.Пожалуй, наиболее примечательными инструментами спецификации модели являются
.- Конструктор каналов, который обсуждается ниже (см. Расширяемую пользователем библиотеку биофизических механизмов).
- CellBuilder, который можно использовать для создания новых моделей ячеек с нуля и изменения существующих моделей без написания кода. Биофизические свойства могут быть постоянными по длине каждого участка или определяться заданными пользователем функциями положения в соответствии с радиальным расстоянием от точки, расстоянием по траектории от исходного местоположения в ячейке или расстоянием по оси в плоскости xy.
- Инструмент Import3D, который может преобразовывать морфометрические данные из форматов Eutectic, Neurolucida и SWC в ячейки модели. Он автоматически исправляет многие распространенные ошибки и помогает выявлять сложные проблемы, требующие решения.
- Построитель линейных цепей, инструмент для создания моделей, которые включают щелевые соединения, эпаптические взаимодействия, двухэлектродные зажимы напряжения, динамические зажимы или другие комбинации нейронов и элементов электрических цепей. Например, эта модель динамического зажима была реализована с помощью Linear Circuit Builder.
- Конструктор сетей, который можно использовать для создания прототипов небольших сетей, которые впоследствии можно будет использовать для многократного использования кода для создания крупномасштабных сетей.
Есть также мощные инструменты для анализа и оптимизации моделей.
- Инструмент ModelView автоматически обнаруживает свойства модели и представляет их в доступной для просмотра текстовой и графической форме. Это может быть очень полезно для разработки и сопровождения кода. Это становится все более важным по мере того, как совместное использование кода становится все более распространенным не только потому, что оно помогает пользователям понимать модели друг друга, но также потому, что оно может генерировать и импортировать спецификации моделей в XML, тем самым облегчая взаимодействие с другими симуляторами.
- Инструменты импеданса выполняют электротонический анализ модельной ячейки, включая входной и передаточный импеданс, коэффициенты передачи напряжения и электротонное преобразование, и представляют результаты в виде легко понятных графиков.
- Multiple Run Fitter упрощает настройку и управление протоколами оптимизации для автоматической настройки параметров модели, которые ограничены данными из одного или нескольких экспериментальных протоколов.
Чтобы увидеть некоторые примеры того, как можно использовать NEURON, обязательно посмотрите Демонстрации и примеры.
Расширяемая библиотека биофизических механизмов
Пользовательские механизмы, такие как ионные каналы, управляемые напряжением и лигандом, диффузия, буферизация, активный транспорт и т. Д., Могут быть добавлены путем написания описаний моделей в NMODL, языке программирования высокого уровня, который имеет простой синтаксис для выражения кинетической схемы и системы одновременных алгебраических и / или дифференциальных уравнений. NMODL также можно использовать для написания описаний моделей для новых классов искусственных ячеек.Эти описания моделей составлены таким образом, чтобы можно было эффективно вычислить напряжение и состояния мембраны с использованием методов интегрирования, оптимизированных для разветвленных структур. Большое количество механизмов, написанных на NMODL, было размещено в WWW авторами опубликованных моделей; многие из них были введены в ModelDB, что позволяет пользователям легко находить и извлекать исходный код модели в соответствии с такими критериями поиска, как автор, тип модели (например, ячейка или сеть), ионные токи и т. д..
Как упоминалось выше, NEURON также имеет инструмент с графическим интерфейсом под названием ChannelBuilder, который упрощает определение управляемых напряжением и лигандом ионных каналов в терминах ODE (HH-стиль, включая формулировку Борга-Грэма) и / или кинетических схем. Каналы ChannelBuilder фактически выполняют быстрее , чем идентичные механизмы, указанные в NMODL. Их состояния и общая проводимость можно моделировать как детерминированные (непрерывные во времени) или стохастические (счетное количество каналов с независимыми переходами состояний, производящих случайные, резкие изменения проводимости).
Улучшения для моделирования сетей
Несмотря на то, что NEURON начал свою деятельность в области моделей с одной ячейкой, с начала 1990-х годов он применялся к сетевым моделям, которые содержат большое количество ячеек и соединений. Его пригодность для сетевых моделей была увеличена за счет введения функций, которые включают
- система доставки событий, которая управляет доставкой спайковых событий к синаптическим целям и позволяет реализовать искусственные спайковые клетки, которые на несколько порядков быстрее, чем клетки биофизической модели, и могут использоваться в сетевых моделях, которые также могут включать биофизические модельные клетки
- — объектный класс Network Connection, который значительно упростил построение и управление сетями.
- обобщенных синапсов, которые упрощают вычислительно эффективную реализацию синаптической конвергенции, в то же время позволяя синаптическую пластичность, зависящую от потока, регулируемую правилами, задаваемыми пользователем (например,грамм. пластичность, зависящая от использования и / или зависящая от времени всплеска)
- глобальные и локальные методы интеграции переменного порядка и размера шага, которые могут существенно сократить время работы для некоторых моделей
- , , способность реализовывать сетевые модели, которые распределяются между процессорами в параллельной вычислительной архитектуре (Migliore et al, 2006). Правильно написанный код будет работать на однопроцессорном автономном ПК или на параллельном оборудовании без изменений.
Настраиваемая инициализация и управление потоком моделирования
Сложные модели часто требуют настраиваемой инициализации и / или управления потоком моделирования.Управление симуляцией в NEURON использует стандартную систему запуска, которая предназначена для удобной настройки.
Большая база пользователей
По состоянию на февраль 2021 года нам известно более 2400 научных статей и книг, в которых сообщается о работе, выполненной с помощью NEURON. Список рассылки NEURON насчитывает около 500 подписчиков, а форум NEURON, который был запущен в мае 2005 года и постепенно вытесняет старый список рассылки, насчитывает более 1600 зарегистрированных пользователей и более 17000 отправленных сообщений в более чем 4000 веток обсуждений.
Разработка, поддержка и документация
NEURON активно развивается и поддерживается, новые стандартные выпуски выходят примерно два раза в год, при необходимости они дополняются исправлениями ошибок. Альфа-версии, содержащие «самые последние функции», становятся доступными через более короткие промежутки времени.
Служба поддержкидоступна по электронной почте, телефону и в консультации. Пользователи также могут задавать вопросы и делиться информацией с другими членами сообщества NEURON через список рассылки и форум NEURON.Помимо возможности просмотра и поиска для обсуждения конкретных вопросов, Форум содержит постоянно растущий список советов, практических рекомендаций и полезных советов, представляющих интерес для пользователей с любым уровнем знаний.
Доступна обширная документация, в том числе он-лайн справочник программиста, список часто задаваемых вопросов, учебные пособия и препринты ключевых статей о NEURON. Авторитетной книгой о NEURON является The NEURON Book (Carnevale and Hines, 2006). В четырех других книгах NEURON широко использовался (Destexhe and Sejnowski, 2001; Johnston and Wu, 1995; Lytton, 2002; Moore and Stuart, 2000), и некоторые из них включают исходный код или сделали его доступным в Интернете.
Однодневные курсы по NEURON представлены в качестве дополнения к ежегодным собраниям Общества нейробиологии, а интенсивные пятидневные практические летние курсы проводятся в Калифорнийском университете в Сан-Диего и других местах; нажмите здесь, чтобы узнать о будущих курсах. Специальные семинары и обучающие программы представлены на NEURON Simulator Meeting, эпизодическом собрании исследователей и преподавателей нейробиологии, которые заинтересованы в использовании компьютерного моделирования в своей работе.Инструктаж и консультации по NEURON также предоставляются на Европейском продвинутом курсе по вычислительной нейробиологии.
Доступность и системные требования
NEURON распространяется бесплатно с сайта neron.yale.edu. Он работает на всех популярных аппаратных платформах под MSWin (98 или новее), UNIX, Linux и OS X, а также на параллельном оборудовании, включая кластеры Beowulf, IBM Blue Gene и Cray XT3.
Список литературы
Carnevale, N.T. и Хайнс, М. Книга НЕЙРОН. Кембридж, Великобритания: Cambridge University Press, 2006.
Destexhe, A. and Sejnowski, T.J. Таламокортикальные скопления . Нью-Йорк: Oxford University Press, 2001.
.Hindmarsh, A.C. и Serban, R. Пользовательская документация для CVODES, решателя ODE с возможностями анализа чувствительности. Ливерморская национальная лаборатория им. Лоуренса, 2002 г.
Hindmarsh, A.C. и Taylor, A.G. Пользовательская документация для IDA, дифференциально-алгебраического решателя для последовательных и параллельных компьютеров.Ливерморская национальная лаборатория Лоуренса, 1999.
Hines, M.L. and Carnevale, N.T. НЕЙРОН: инструмент для нейробиологов. Невролог 7: 123-135, 2001.
Джонстон Д. и Ву С.М.-С. Основы клеточной нейрофизиологии . Кембридж, Массачусетс: MIT Press, 1995.
Керниган, Б.В. и Пайк, Р. Приложение 2: руководство Hoc. В: Среда программирования Unix . Энглвуд Клиффс, Нью-Джерси: Прентис-Холл, 1984.
Lytton, W.W. От компьютера к мозгу .Нью-Йорк: Springer-Verlag, 2002.
.Migliore, M., Cannia, C., Lytton, W.W., Markram, H. and Hines, M.L. Параллельное моделирование сети с NEURON. Journal of Computational Neuroscience 21: 110-119, 2006.
Мур, Дж. У. и Стюарт, A.E. Нейроны в действии: компьютерное моделирование с помощью NeuroLab . Сандерленд, Массачусетс: Sinauer Associates, 2000.
SUNDIALS доступно по адресу https://computation.llnl.gov/projects/sundials
.Опыт программирования, связанный с нейронной эффективностью при фигуральном мышлении
- 1.
Винг, Дж. М. Вычислительное мышление. Он представляет собой универсально применимый подход и набор навыков, которые каждый, а не только компьютерные ученые, хотел бы изучить и использовать. Commun. ACM 49 (3), 33–35 (2006).
Артикул Google ученый
- 2.
Локвуд, Дж. И Муни, А. Вычислительное мышление в среднем образовании: где оно подходит? Систематический литературный обзор. IJCSES 2 (1), 41.https://doi.org/10.21585/ijcses.v2i1.26 (2018).
Артикул Google ученый
- 3.
Шут В. Дж., Сан К. и Асбелл-Кларк Дж. Демистификация вычислительного мышления. Educ. Res. Ред. 22 , 142–158. https://doi.org/10.1016/j.edurev.2017.09.003 (2017).
Артикул Google ученый
- 4.
Ван, Д., Ван, Т. и Лю, З. Материальный инструмент программирования для детей, развивающий вычислительное мышление. Sci. Мир J. 2014 , 428080. https://doi.org/10.1155/2014/428080 (2014).
Артикул Google ученый
- 5.
Мюллер М., Шиндлер К., Слэни У.: Карманный код — мобильная среда визуального программирования для разработки приложений. In MOBILESoft 2019. Шестая международная конференция IEEE / ACM по разработке программного обеспечения и систем для мобильных устройств: протоколы: Монреаль, Канада, 25 мая 2019 г. Канада, 25.05.2019 — 25.05.2019 , 140–143.(IEEE Computer Society, Conference Publishing Services (CPS), Лос-Аламитос, Калифорния, 2019). https://doi.org/10.1109/MOBILESoft.2019.00027
- 6.
Стефан, М. И., Гутлернер, Дж. Л., Борн, Р. Т. и Спрингер, М. Учебный курс по количественным методам: обучение количественному мышлению и вычислительным навыкам аспирантов в области естественных наук. PLoS Comput. Биол. 11 (4), e1004208. https://doi.org/10.1371/journal.pcbi.1004208 (2015).
ADS CAS Статья PubMed PubMed Central Google ученый
- 7.
Уизерспун, Э. Б., Хигаши, Р. М., Шунн, К. Д., Бэр, Э. К. и Шуп, Р. Развитие вычислительного мышления с помощью учебной программы по программированию виртуальной робототехники. ACM Trans. Comput. Educ. 18 (1), 1–20. https://doi.org/10.1145/3104982 (2017).
Артикул Google ученый
- 8.
Винг, Дж. М .: Вычислительное мышление: что и почему? Thelink — Магазин компьютерных наук Университета Варнеги-Меллон, 1–6 (2010)
- 9.
Mohaghegh, D. & McCauley, M. Вычислительное мышление: набор навыков 21 века. Внутр. J. Comput. Sci. Инф. Technol. 7 (3), 1524–1530 (2016).
Google ученый
- 10.
Национальный исследовательский совет. Отчет семинара по масштабам и природе вычислительного мышления (The National Academies Press, Вашингтон, округ Колумбия, 2010).
Google ученый
- 11.
Wing, J.M .: Вычислительное мышление и мышление о вычислениях. Философские труды. Серия A, Математические, физические и технические науки 366 (1881), 3717–3725 (2008). https://doi.org/10.1098/rsta.2008.0118
- 12.
Иоанниду А., Беннетт В. и Репеннинг А. Паттерны вычислительного мышления. Документ, представленный на ежегодном собрании Американской ассоциации исследований в области образования, 1–15 (2011)
- 13.
Шерер Р., Сиддик Ф.И Санчес Виверос, Б. Познавательные преимущества обучения компьютерному программированию: метаанализ эффектов переноса. J. Educ. Psychol. 111 (5), 764–792. https://doi.org/10.1037/edu0000314 (2019).
Артикул Google ученый
- 14.
Амбросио, А. П., да Силва Алмейда, Л., Маседо, Дж. И Франко, А. Изучение основных когнитивных навыков вычислительного мышления. Psychol. Программа. Ежегодная конференция группы интересов 2014 , 1–10 (2014).
Google ученый
- 15.
Бассо, Д., Фронза, И., Коломби, А. и Пал, К. Улучшение оценки вычислительного мышления с помощью комплексной структуры. In Proceedings of 18th Koli Calling International Conference on Computing Education Research — Koli Calling ’18. 18-я Международная конференция по вызову Коли, Коли, Финляндия, 22 ноября 18–25 ноября 18 (ред. Джой, М. и Ихантола, П.) 1–5. (ACM Press, Нью-Йорк, Нью-Йорк, США, 2018).https://doi.org/10.1145/3279720.3279735
- 16.
Ким, Б., Ким, Т. и Ким, Дж. Стратегия программирования на бумаге и карандаше для вычислительного мышления для неосновных специалистов: спроектируйте свое решение. J. Educ. Comput. Res. 49 (4), 437–459. https://doi.org/10.2190/EC.49.4.b (2013).
Артикул Google ученый
- 17.
Кеттелл, Р. Б. Теория жидкого и кристаллизованного интеллекта: критический эксперимент. J. Educ. Psychol. 54 (1), 1-22. https://doi.org/10.1037/h0046743 (1963).
Артикул Google ученый
- 18.
Арендаси М. Э., Зоммер М. и Гиттлер Г. Ручная разведка — структура — батарея (INSBAT). SCHUHFRIED GmbH, Mödling (в печати).
- 19.
Амброзио, А. П., Ксавье, К., Жорж, Ф .: Цифровые чернила для когнитивной оценки вычислительного мышления. В материалах 2014 IEEE Frontiers in Education Conference (FIE) Proceedings.2014 IEEE Frontiers in Education Conference (FIE), Мадрид, Испания, , 1–7. (IEEE, 2014). https://doi.org/10.1109/FIE.2014.7044237
- 20.
Бум, К.-Д., Бауэр, М., Аргуэль, А., Симон, Дж. И Шолкманн, А. Взаимосвязь между вычислительным мышлением и показателем интеллекта как общей способности решать проблемы. В материалах 23-й ежегодной конференции ACM по инновациям и технологиям в образовании в области компьютерных наук — ITiCSE 2018. 23-й ежегодной конференции ACM, Ларнака, Кипр, 02.07.2018 — 04.07.2018 (ред.Поликарпу, И. и др. .) 206–211. (ACM Press, Нью-Йорк, Нью-Йорк, США, 2018). https://doi.org/10.1145/3197091.3197104
- 21.
Прат, К. С., Мадхьястха, Т. М., Моттарелла, М. Дж. И Куо, К.-Х. Связь способности естественного языка с индивидуальными различиями в изучении языков программирования. Sci. Реп. 10 (1), 3817. https://doi.org/10.1038/s41598-020-60661-8 (2020).
ADS CAS Статья PubMed PubMed Central Google ученый
- 22.
Hayes, J. & Stewart, I. Сравнение эффектов производного реляционного обучения и компьютерного кодирования на интеллектуальный потенциал детей школьного возраста. руб. J. Educ. Psychol. 86 (3), 397–411. https://doi.org/10.1111/bjep.12114 (2016).
Артикул PubMed Google ученый
- 23.
Роман-Гонсалес, М., Перес-Гонсалес, Х.-К. И Хименес-Фернандес, С. Какие когнитивные способности лежат в основе вычислительного мышления? Критерий достоверности теста на компьютерное мышление. Comput. Гм. Behav. 72 , 678–691. https://doi.org/10.1016/j.chb.2016.08.047 (2017).
Артикул Google ученый
- 24.
Парк, С.-Ю., Сонг, К.-С. И Ким, С.-Х. Анализ ЭЭГ для влияния обучения на основе компьютерного мышления на когнитивную нагрузку учащихся. Недавние достижения в области компьютерных наук, 38–43 (2015)
- 25.
Антоненко П., Паас Ф., Грабнер Р. и Ван Гог Т. Использование электроэнцефалографии для измерения когнитивной нагрузки. Educ. Psychol. Ред. 22 (4), 425–438. https://doi.org/10.1007/s10648-010-9130-y (2010).
Артикул Google ученый
- 26.
Дженсен, О. и Теш, К. Д. Фронтальная тета-активность у людей увеличивается с нагрузкой на память при выполнении задачи рабочей памяти. Eur. J. Neurosci. 15 (8), 1395–1399. https://doi.org/10.1046/j.1460-9568.2002.01975.x (2002).
Артикул PubMed Google ученый
- 27.
Гевинс, А. и Смит, М. Е. Нейрофизиологические показатели рабочей памяти и индивидуальных различий в когнитивных способностях и когнитивном стиле. Cereb. Cortex 10 , 829–839 (2000).
CAS Статья Google ученый
- 28.
Klimesch, W. Альфа- и тета-колебания ЭЭГ отражают когнитивные способности и память: обзор и анализ. Brain Res. Ред. 29 , 169–195 (1999).
CAS Статья Google ученый
- 29.
Пуртшеллер, Г. и Лопес да Силва, Ф. Х. Синхронизация и десинхронизация ЭЭГ / МЭГ, связанные с событиями: основные принципы. Clin. Neurophysiol. 110 (11), 1842–1857. https://doi.org/10.1016/S1388-2457(99)00141-8 (1999).
Артикул Google ученый
- 30.
Haier, R.J., Siegel, B., Tang, C., Abel, L. & Buchsbaum, M. S. Интеллект и изменения региональной скорости метаболизма глюкозы в головном мозге после обучения. Разведка 16 (3–4), 415–426. https://doi.org/10.1016/0160-2896(92)
-M (1992). - 31.
Haier, R.J. et al. Скорость метаболизма глюкозы коры коррелирует с абстрактными рассуждениями и вниманием, изучаемыми с помощью позитронно-эмиссионной томографии. Разведка 12 (2), 199–217.https://doi.org/10.1016/0160-2896(88)
-5 (1988). - 32.
Яушовец, Н. и Яушовец, К. ЭЭГ-активность при выполнении сложных психических задач. Внутр. J. Psychophysiol. 36 , 73–88 (2000).
Артикул Google ученый
- 33.
Neubauer, A.C., Freudenthaler, H. H. & Pfurtscheller, G. Интеллект и пространственно-временные паттерны десинхронизации, связанной с событиями (ERD). Разведка 20 , 249–266 (1995).
Артикул Google ученый
- 34.
Грабнер, Р. Х., Стерн, Э. и Нойбауэр, А. С. Когда интеллект теряет свое влияние: эффективность нейронов во время рассуждения в знакомой области. Внутр. J. Psychophysiol. 49 (2), 89–98. https://doi.org/10.1016/S0167-8760(03)00095-3 (2003).
Артикул PubMed Google ученый
- 35.
Neubauer, A.C. & Fink, A. Интеллект и нейронная эффективность: меры активации мозга по сравнению с показателями функциональной связи в головном мозге. Разведка 37 (2), 223–229. https://doi.org/10.1016/j.intell.2008.10.008 (2009).
Артикул Google ученый
- 36.
Karim, H. T. et al. Нейронная эффективность, вызванная обучением моторной последовательности, в функциональной связности мозга. Behav.Brain Res. 319 , 87–95. https://doi.org/10.1016/j.bbr.2016.11.021 (2017).
Артикул PubMed Google ученый
- 37.
Ву, Т., Чан, П. и Халлетт, М. Модификации взаимодействий в моторных сетях, когда движение становится автоматическим. J. Physiol. 586 (17), 4295–4304. https://doi.org/10.1113/jphysiol.2008.153445 (2008).
CAS Статья PubMed PubMed Central Google ученый
- 38.
Эванс, Дж. С. Б. Т. Теории рассуждений с двойным процессом: современные проблемы и приложения для развития. Dev. Ред. 31 (2–3), 86–102. https://doi.org/10.1016/j.dr.2011.07.007 (2011).
Артикул Google ученый
- 39.
Барруйе П. Теории рассуждения с двойным процессом: проверка развития. Dev. Ред. 31 , 151–179. https://doi.org/10.1016/j.dr.2011.07.006 (2011).
Артикул Google ученый
- 40.
Спант, Р. П. Теории двойных процессов в социальной когнитивной нейробиологии. Brain Mapp. Энцикл. Ref. 3 , 211–215. https://doi.org/10.1016/B978-0-12-397025-1.00181-0 (2015).
Артикул Google ученый
- 41.
Chrysikou, E. G., Weber, M. J. и Thompson-Schill, S. L. Гипотеза согласованного фильтра для когнитивного контроля. Neuropsychologia 62 , 341–355. https://doi.org/10.1016/j.neuropsychologia.2013.10.021 (2014).
Артикул PubMed Google ученый
- 42.
Rosen, D. S. et al. Вклад двойного процесса в творчество в джазовых импровизациях: исследование SPM-EEG. NeuroImage 213 , 116632. https://doi.org/10.1016/j.neuroimage.2020.116632 (2020).
Артикул PubMed Google ученый
- 43.
Шэллис, Т. и Купер, Р. Организация разума (Oxford University Press, Oxford, 2011).
Книга Google ученый
- 44.
Яушовец, Н. и Яушовец, К. Пространственно-временная активность мозга, связанная с интеллектом: исследование электромагнитной томографии головного мозга с низким разрешением. Cognit. Brain Res. 16 (2), 267–272. https://doi.org/10.1016/S0926-6410(02)00282-3 (2003).
Артикул Google ученый
- 45.
Jausovec, N. & Jausovec, K. Различия в индуцированной мозговой активности во время выполнения задач обучения и оперативной памяти, связанных с интеллектом. Brain Cogn. 54 (1), 65–74. https://doi.org/10.1016/s0278-2626(03)00263-x (2004).
Артикул PubMed Google ученый
- 46.
Фиск, А. и Холмбо, К. Нейронные субстраты раннего развития исполнительной функции. Dev. Ред. 52 , 42–62.https://doi.org/10.1016/j.dr.2019.100866 (2019).
Артикул PubMed PubMed Central Google ученый
- 47.
Грабнер, Р. Х. и де Смедт, Б. Нейрофизиологические доказательства достоверности отчетов о вербальной стратегии в ментальной арифметике. Biol. Psychol. 87 (1), 128–136. https://doi.org/10.1016/j.biopsycho.2011.02.019 (2011).
Артикул PubMed Google ученый
- 48.
Фейгенспан, Дж., Кестнер, К., Либих, Дж., Апель, С. Ханенберг, С. Опыт программирования в области измерения. В 2012 20-я Международная конференция IEEE по пониманию программ (ICPC). 2012 20-я Международная конференция IEEE по пониманию программ (ICPC) , 73–82 (2012). https://doi.org/10.1109/ICPC.2012.6240511
- 49.
WMA (Всемирная медицинская ассоциация). Хельсинкская декларация. Этические принципы медицинских исследований с участием людей. J. Indian Med. Доц. 107 (6), 403–405 (2009)
- 50.
МакГрю, К. С. Теория CHC и проект когнитивных способностей человека: стоя на плечах гигантов исследования психометрического интеллекта. Разведка 37 (1), 1–10. https://doi.org/10.1016/j.intell.2008.08.004 (2009).
Артикул Google ученый
- 51.
Шнайдер У. Дж. И Макгрю К. С. Теория когнитивных способностей Кэттеля-Хорна-Кэррола.In Contemporary Intellectual Assessment: Theories, Tests, and Issues (eds Flanagan, D. P. & McDonough, E. M.) 73–163 (Guilford Press, New York N.Y., 2018).
Google ученый
- 52.
Arendasy, M. E. & Sommer, M. Использование автоматической генерации заданий для удовлетворения растущих требований заданий при оценке образования и профессиональной подготовки с высокими ставками. Узнать. Индивидуальный. Отличаются. 22 (1), 112–117. https: // doi.org / 10.1016 / j.lindif.2011.11.005 (2012).
Артикул Google ученый
- 53.
Ирвин, С. Х. и Киллонен, П. К. Создание заданий для разработки тестов (Лоуренс Эрлбаум, Махва, Нью-Джерси, 2002).
Google ученый
- 54.
Раш Г. Вероятностные модели для некоторых тестов на интеллект и достижения (Издательство Чикагского университета, Чикаго, 1980).
Google ученый
- 55.
Beaujean, A. A., Parkin, J. & Parker, S. Сравнение факторных моделей Кеттелла – Хорна – Кэрролла: различия между двухфакторными и факторными моделями более высокого порядка в прогнозировании языковых достижений. Psychol. Оценивать. 26 (3), 789–805. https://doi.org/10.1037/a0036745 (2014).
Артикул PubMed Google ученый
- 56.
Эйд, М. Мультитрейт-мультиметодная модель с минимальными допущениями. Психометрика 65 (2), 241–261. https://doi.org/10.1007/BF02294377 (2000).
MathSciNet Статья МАТЕМАТИКА Google ученый
- 57.
Эйд, М., Гейзер, К., Кох, Т. и Хин, М. Аномальные результаты в моделях G-фактора: объяснения и альтернативы. Psychol. Методы 22 (3), 541–562. https://doi.org/10.1037 / met0000083 (2017).
Артикул PubMed Google ученый
- 58.
ван дер Линден, У. Дж. И Глас, К. А. Компьютерное адаптивное тестирование: теория и практика (Kluwer Academic, Dordrecht, 2000).
Книга Google ученый
- 59.
Peirce, J. et al. PsychoPy2: эксперименты над поведением стали проще. Behav. Res. Методы 51 (1), 195–203.https://doi.org/10.3758/s13428-018-01193-y (2019).
Артикул PubMed PubMed Central Google ученый
- 60.
Арендаси, М. Э. и Соммер, М. Влияние различных типов перцепционных манипуляций на размерность автоматически генерируемых фигуральных матриц. Разведка 33 (3), 307–324. https://doi.org/10.1016/j.intell.2005.02.002 (2005).
Артикул Google ученый
- 61.
Арендаси, М. Э. и Соммер, М. Гендерные различия в фигуральных матрицах: модерирующая роль особенностей дизайна предметов. Разведка 40 (6), 584–597. https://doi.org/10.1016/j.intell.2012.08.003 (2012).
Артикул Google ученый
- 62.
Arendasy, M. E. & Sommer, M. Снижение стратегии исключения ответа повышает конструктивную достоверность фигуральных матриц. Разведка 41 (4), 234–243.https://doi.org/10.1016/j.intell.2013.03.006 (2013).
Артикул Google ученый
- 63.
Карпентер П. А., Джаст М. А. и Шелл П. Что измеряет один тест интеллекта: теоретическое описание обработки в тесте прогрессивных матриц Равена. Psychol. Ред. 97 (3), 404–431. https://doi.org/10.1037/0033-295X.97.3.404 (1990).
CAS Статья PubMed Google ученый
- 64.
Расмуссен, Д. и Элиасмит, К. Нейронная модель генерации правил в индуктивных рассуждениях. Верх. Cognit. Sci. 3 (1), 140–153. https://doi.org/10.1111/j.1756-8765.2010.01127.x (2011).
Артикул Google ученый
- 65.
Арендаси, М. Э., Хергович, А. и Соммер, М. Исследование «g» -насыщенности различных факторов второго слоя с использованием автоматического создания элементов. Разведка 36 (6), 574–583.https://doi.org/10.1016/j.intell.2007.11.005 (2008).
Артикул Google ученый
- 66.
Хольцман Т. Г., Пеллигрино Дж. У. и Глейзер Р. Когнитивные измерения индукции числовых правил. J. Educ. Psychol. 74 (3), 360–373. https://doi.org/10.1037/0022-0663.74.3.360 (1982).
Артикул Google ученый
- 67.
Хольцман, Т. Г., Пеллегрино, Дж. У. и Глейзер, Р. Когнитивные переменные в завершении ряда. J. Educ. Psychol. 75 (4), 603–618. https://doi.org/10.1037/0022-0663.75.4.603 (1983).
Артикул Google ученый
- 68.
Джонсон-Лэрд П. Н. Ментальные модели: на пути к когнитивной науке о языке, выводах и сознании (Издательство Кембриджского университета, Кембридж, 1983).
Google ученый
- 69.
Хемлани С. и Джонсон-Лэрд П. Н. Теории силлогизма: метаанализ. Psychol. Бык. 138 (3), 427–457. https://doi.org/10.1037/a0026841 (2012).
Артикул PubMed Google ученый
- 70.
Зелински Т. А., Гудвин Г. П. и Халфорд Г. С. Сложность категориальных силлогизмов: интеграция двух метрик. Eur. J. Cogn. Psychol. 22 (3), 391–421.https://doi.org/10.1080/09541440
0509 (2010).Артикул Google ученый
- 71.
Джаспер, Х. Х. Десять-двадцать электродная система Международной федерации. Электроэнцефалогр. Clin. Neurophysiol. 10 (2), 370–375. https://doi.org/10.1016/0013-4694(58)
-1 (1958).Артикул Google ученый
- 72.
Brain Products GmbH: BrainVision Analyzer 2.0.1 Руководство пользователя, (3-е изд.), Мюнхен, Германия (2009)
- 73.
Urigüen, J. A. & Garcia-Zapirain, B. Современное состояние и рекомендации по удалению артефактов ЭЭГ. J. Neural Eng. 12 (3), 31001. https://doi.org/10.1088/1741-2560/12/3/031001 (2015).
Артикул Google ученый
- 74.
Драганова Р., Попиванов Д. Оценка динамики частоты ЭЭГ с использованием комплексной демодуляции. Physiol.Res. 48 (2), 157–165 (1999).
CAS PubMed Google ученый
- 75.
Klimesch, W., Sauseng, P. & Hanslmayr, S. Альфа-осцилляции ЭЭГ: гипотеза времени торможения. Brain Res. Ред. 53 (1), 63–88. https://doi.org/10.1016/j.brainresrev.2006.06.003 (2007).
Артикул PubMed Google ученый
- 76.
Эмери Л., Хейл С. и Майерсон Дж. Возрастные различия в проактивном вмешательстве, рабочей памяти и абстрактном мышлении. Psychol. Старение 23 (3), 634–645. https://doi.org/10.1037/a0012577 (2008).
Артикул PubMed PubMed Central Google ученый
- 77.
Neubauer, A.C., Grabner, R.H., Fink, A. & Neuper, C. Интеллект и нейронная эффективность: дополнительные доказательства влияния содержания задачи и пола на взаимосвязь мозга и IQ. Brain Res. Cogn. Brain Res. 25 (1), 217–225. https://doi.org/10.1016/j.cogbrainres.2005.05.011 (2005).
Артикул PubMed Google ученый
- 78.
Кобер, С. Э., Витте, М., Нинаус, М., Нойпер, К. и Вуд, Г. Обучение модуляции собственной мозговой активности: эффект спонтанных умственных стратегий. Фронт. Гм. Neurosci. 7 , 695. https://doi.org/10.3389/fnhum.2013.00695 (2013).
Артикул PubMed PubMed Central Google ученый
- 79.
Барр Д., Харрисон Дж. И Конери Л. Вычислительное мышление: навык цифровой эпохи для всех. Узнать. Вести. Technol. 38 (6), 20–23 (2011).
Google ученый
- 80.
Arendasy, M. et al. Intelligenz-Struktur-Batterie — INSBAT (SCHUHFRIED GmbH, Mödling, Österreich, 2012).
Google ученый
- 81.
Кэрролл, Дж. Б. Когнитивные способности человека. Обзор факторно-аналитических исследований (издательство Кембриджского университета, Кембридж, 1993).
Книга Google ученый
- 82.
Вильгельм О. Измерение способности к рассуждению. В справочнике по пониманию и измерению интеллекта (ред. Вильгельм, О. и Энгл, Р. У.) 373–392 (Sage Publications, Лондон, 2004).
Google ученый
- 83.
Фучек, Г .: Алгоритмическое мышление: ключ к пониманию компьютерных наук. В «Образование в области информатики — мост между использованием и пониманием компьютеров», том. 4226. Конспект лекций по информатике (ред. Хатчисон, Д. и др. ) 159–168. (Springer, Berlin, 2006)
- 84.
Città, G. et al. Влияние умственного вращения на вычислительное мышление. Comput. Educ. 141 , 103613. https://doi.org/10.1016/j.compedu.2019.103613 (2019).
Артикул Google ученый
- 85.
Доппельмайр, М. et al. Различия в мощности диапазона ЭЭГ, связанные с интеллектом. Neurosci. Lett. 381 (3), 309–313. https://doi.org/10.1016/j.neulet.2005.02.037 (2005).
CAS Статья PubMed Google ученый
- 86.
Dix, A., Wartenburger, I. & van der Meer, E. Роль гибкого интеллекта и обучения в рассуждении по аналогии: как стать нервно-эффективным ?. Neurobiol. Учиться. Mem. 134 (Pt B), 236–247. https://doi.org/10.1016/j.nlm.2016.07.019 (2016).
Артикул PubMed Google ученый
- 87.
Neubauer, A.C., Fink, A. & Schrausser, D.G. Интеллект и нейронная эффективность: влияние содержания задачи и пола на взаимосвязь между мозгом и IQ. Intelligence 30 , 515–536 (2002).
Артикул Google ученый
- 88.
Preusse, F., van der Meer, E., Deshpande, G., Krueger, F. & Wartenburger, I. Гибкий интеллект позволяет гибко задействовать теменно-лобную сеть в аналогичных рассуждениях. Фронт. Гм. Neurosci. 5 , 22. https://doi.org/10.3389/fnhum.2011.00022 (2011).
Артикул PubMed PubMed Central Google ученый
- 89.
Юнг, Р. Э., Хайер, Р. Дж. Теория теменно-фронтальной интеграции (P-FIT) интеллекта: конвергентные данные нейровизуализации. Behav. Brain Sci. 30 (2), 135–54; обсуждение 154–87 (2007). https://doi.org/10.1017/S0140525X07001185
- 90.
Ньюман, С. Д., Карпентер, П. А., Варма, С. и Джаст, М. А. Фронтальное и теменное участие в решении проблем в Лондонском Тауэре: фМРТ и компьютерное моделирование планирования и восприятия высокого уровня. Neuropsychologia 41 (12), 1668–1682.https://doi.org/10.1016/S0028-3932(03)00091-5 (2003).
Артикул PubMed Google ученый
- 91.
Rypma, B. et al. Нейронные корреляты когнитивной эффективности. NeuroImage 33 (3), 969–979. https://doi.org/10.1016/j.neuroimage.2006.05.065 (2006).
Артикул PubMed Google ученый
- 92.
Саккалис В. Обзор передовых методов оценки связности мозга, измеренной с помощью ЭЭГ / МЭГ. Comput. Биол. Med. 41 (12), 1110–1117. https://doi.org/10.1016/j.compbiomed.2011.06.020 (2011).
CAS Статья PubMed Google ученый
- 93.
Грабнер, Р. Х., Нойбауэр, А. К. и Стерн, Э. Превосходная производительность и нейронная эффективность: влияние интеллекта и опыта. Brain Res. Бык. 69 (4), 422–439. https://doi.org/10.1016/j.brainresbull.2006.02.009 (2006).
Артикул PubMed Google ученый
- 94.
Анджели, С. и Джаннакос, М. Образование компьютерного мышления: проблемы и проблемы. Comput. Гм. Behav. 105 , 106185. https://doi.org/10.1016/j.chb.2019.106185 (2020).
Артикул Google ученый
- 95.
Лай, С. Ю. и Кох, Дж. Х. Л. Обзор преподавания и обучения вычислительному мышлению посредством программирования: что будет дальше с K-12 ?. Comput. Гм. Behav. 41 , 51–61. https://doi.org/10.1016/j.chb.2014.09.012 (2014).
Артикул Google ученый
- 96.
Курланд Д. М., Пи Р. Д., Клемент К. и Моби Р. Исследование развития навыков программирования и мышления у старшеклассников. J. Educ. Comput. Res. 2 (4), 429–458. https://doi.org/10.2190/BKML-B1QV-KDN4-8ULH (1986).
Артикул Google ученый
Артикул Google ученый
Артикул Google ученый
нейронная сеть | вычисления | Britannica
нейронная сеть , компьютерная программа, которая работает по принципу естественной нейронной сети в мозгу.Задача таких искусственных нейронных сетей — выполнять такие когнитивные функции, как решение проблем и машинное обучение. Теоретические основы нейронных сетей были разработаны в 1943 году нейрофизиологом Уорреном Маккалоком из Университета Иллинойса и математиком Уолтером Питтсом из Университета Чикаго. В 1954 году Белмонту Фарли и Уэсли Кларку из Массачусетского технологического института удалось запустить первую простую нейронную сеть. Основная привлекательность нейронных сетей — это их способность имитировать умение мозга распознавать образы.Среди коммерческих приложений этой способности нейронные сети использовались для принятия инвестиционных решений, распознавания почерка и даже обнаружения бомб.
Отличительной особенностью нейронных сетей является то, что знания о ее области распределяются по самой сети, а не явно записываются в программу. Эти знания моделируются как связи между обрабатывающими элементами (искусственными нейронами) и адаптивными весами каждой из этих связей. Затем сеть учится через различные ситуации.Нейронные сети могут добиться этого, регулируя вес соединений между взаимодействующими нейронами, сгруппированными в слои, как показано на рисунке простой сети прямого распространения. Входной слой искусственных нейронов получает информацию из окружающей среды, а выходной слой передает ответ; между этими уровнями может находиться один или несколько «скрытых» слоев (без прямого контакта с окружающей средой), где происходит большая часть обработки информации. Выход нейронной сети зависит от веса связей между нейронами в разных слоях.Каждый вес указывает на относительную важность определенного соединения. Если сумма всех взвешенных входных сигналов, полученных конкретным нейроном, превышает определенное пороговое значение, нейрон отправит сигнал каждому нейрону, к которому он подключен в следующем слое. Например, при обработке заявок на получение ссуды входные данные могут представлять данные профиля соискателя ссуды и выходные данные о том, предоставлять ли ссуду.
Британская викторина
Компьютеры и технологии. Викторина
Компьютеры размещают веб-сайты, состоящие из HTML, и отправляют текстовые сообщения так же просто, как…РЖУ НЕ МОГУ. Примите участие в этой викторине и позвольте некоторым технологиям подсчитать ваш результат и раскрыть вам содержание.
Две модификации этой простой нейронной сети с прямой связью учитывают рост приложений, таких как распознавание лиц. Во-первых, сеть может быть оснащена механизмом обратной связи, известным как алгоритм обратного распространения, который позволяет ей корректировать веса соединений обратно через сеть, обучая ее в ответ на типичные примеры. Во-вторых, могут быть разработаны рекуррентные нейронные сети, включающие сигналы, которые проходят в обоих направлениях, а также внутри и между слоями, и эти сети способны к значительно более сложным схемам ассоциации.(Фактически, для больших сетей может быть чрезвычайно сложно точно проследить, как был определен результат.)
Обучающие нейронные сети обычно включают контролируемое обучение, где каждый обучающий пример содержит значения как входных данных, так и желаемого результата. Как только сеть сможет достаточно хорошо работать на дополнительных тестовых примерах, ее можно будет применить к новым случаям. Например, исследователи из Университета Британской Колумбии обучили нейронную сеть с прямой связью с данными о температуре и давлении из тропического Тихого океана и из Северной Америки, чтобы предсказывать будущие глобальные погодные условия.
Получите подписку Britannica Premium и получите доступ к эксклюзивному контенту. Подпишитесь сейчасНапротив, некоторые нейронные сети обучаются посредством обучения без учителя, при котором сети предоставляется набор входных данных и ставится цель обнаружить закономерности — без указания, что конкретно нужно искать. Такая нейронная сеть может использоваться в интеллектуальном анализе данных, например, для обнаружения кластеров клиентов в хранилище маркетинговых данных.
Нейронные сети находятся на переднем крае когнитивных вычислений, которые предназначены для того, чтобы информационные технологии выполняли некоторые из более продвинутых психических функций человека.Системы глубокого обучения основаны на многоуровневых нейронных сетях и мощи, например, на функции распознавания речи мобильного помощника Apple Siri. В сочетании с экспоненциально растущими вычислительными мощностями и массивными агрегатами больших данных нейронные сети с глубоким обучением влияют на распределение работы между людьми и машинами.