2 / 1 / 1
Регистрация: 17.12.2018
Сообщений: 78
|
|
1 | |
Ищу статью о обучении нейронных сетей и исходник библиотеки11.11.2019, 18:43. Показов 854. Ответов 6
Метки нет (Все метки)
Прочитал и посмотрел много теории, но так и не получилось сделать, чтото похожее на практике. Посоветуйте подробную статью о нейронных сетях и их ОБУЧЕНИИ , желательно с исходниками. Для c#. Заранее спасибо
0
|
11.11.2019, 18:43 | |
Ответы с готовыми решениями:
6
Ищу литературу по написанию нейронных сетей Применимость нейронных сетей Тема нейронных сетей Комбинирование нейронных сетей |
1584 / 1507 / 251
Регистрация: 19.02.2010
Сообщений: 4,069
|
|
11.11.2019, 20:44 | 2 |
Разных видов/вариантов нейросеток - дофига и больше.
И народ тут телепатией не страдает - чтобы знать, что Вы читали, чего не поняли, что Вам нужно советуемой статьёй/литературой пояснить и какой вообще вариант сетки Вам нужно.
0
|
3682 / 2593 / 719
Регистрация: 02.08.2011
Сообщений: 6,963
|
|
11.11.2019, 23:31 | 3 |
0
|
2 / 1 / 1
Регистрация: 17.12.2018
Сообщений: 78
|
|
12.11.2019, 09:37 [ТС] | 4 |
Многослойная нейронная сеть
Добавлено через 3 часа 55 минут Многослойная нейронная сеть. Обучение скрытых слоёв. Функция Sigmoid применяется ко всем нейронам на выход ,кроме входных? Нейрон из скрытого слоя принимает и обучается по всем дельтам и весам со следущего* слоя? Исходник простой многослойной нейронной сети ,со слоями ,с методами обучения и тд
0
|
3682 / 2593 / 719
Регистрация: 02.08.2011
Сообщений: 6,963
|
|
12.11.2019, 10:52 | 5 |
Сигмоид сейчас очень редко используется, только в случае бинарной классификации в выходном слое.
Есть функции у которых скорость сходимости выше, + они обладают некоторыми полезными свойствами. Например, tanh центрирует данные вокруг 0 (удобно для следующего слоя), а ReLU (и его модификации) обладаются видным преимуществом - низкая вычислительная сложность. Соответственно, ReLU сейчас наиболее часто используется - скорости вычислений выше. + Она почти никогда не страдает от низкой скорости обучения, как например tanh и sigmoid в области, когда производная близка к нулю. Хотя есть такое понятие - Dead ReLU. => Тут появляются модификации ReLU (Leaky ReLU, ELU, Maxout). Насколько я знаю, да. Откорректированная матрица весов следюущего слоя используется для корректировки весов предыдущего слоя. Это и есть backward pass. - Разве что сквозь сетку проходят веса.
1
|
2 / 1 / 1
Регистрация: 17.12.2018
Сообщений: 78
|
|
14.11.2019, 13:44 [ТС] | 6 |
Функция активации используется ко всем нейронам?
0
|
3682 / 2593 / 719
Регистрация: 02.08.2011
Сообщений: 6,963
|
|
14.11.2019, 14:49 | 7 |
0
|
14.11.2019, 14:49 | |
14.11.2019, 14:49 | |
Помогаю со студенческими работами здесь
7
Примеры нейронных сетей Компьютер для нейронных сетей Пронозированию с использованием нейронных сетей Применение свёрточных нейронных сетей Искать еще темы с ответами Или воспользуйтесь поиском по форуму: |