- agirussia.org – русскоязычное сообщество разработчиков сильного искусственного интеллекта. Проводятся семинары по тематике сильного ИИ, материалы семинаров доступны на сайте.
Также присутствуют ссылки на тематические группы в Telegramm. - scorcher.ru – сайт с большим объемом информации, в том числе, об устройстве мозга, поведении. Автор – Nick Fornit, также представляет свою модель развития адаптивных механизмов мозга, приводящих к индивидуальной возможности адаптации к новому. Информация не всегда легко воспринимается, но это, по-моему, лучший ресурс для понимания механизмов мыслительной деятельности.
- OpenCog.org – проект Бена Герцеля (Dr. Ben Goertzel). Предлагает не столько какую-то новую модель сильного ИИ, сколько строит программную инфраструктуру, позволяющую объединять разные компоненты. Честно говоря, не нашел там для себя чего-то интересного. Также проводят конференции по теме AGI.
Если знаете еще какие-то ресурсы на тему сильного ИИ, пишите в комментариях, буду добавлять.
Я бы добавил материалы по Reinforcement Learning.
Скажем так, если “сильный ИИ” не равно “универсальный RL”, то хотелось бы строгую постановку задачи, с максимально конкретными метриками. Хотя бы на этом уровне:
интеллект = оптимизирующая способность/затраты ресурсов
https://intelligenceexplosion.com/ru/2011/playing-taboo-with-intelligence/
Потом. Если мы всё-таки решаем задачу Reinforcement Learning (максимизировать некую функцию, выраженную через сигнал подкрепления), то хорошо бы описать, что такое QLearning. Хотя бы так:
https://ru.wikipedia.org/wiki/Q-%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5
Хотя мне не очень нравится это описание… Но лучшего я не нашёл.
Ещё я бы описал, что такое SARSA, и почему с такой красивой идеей такие красивые проблемы.
https://en.wikipedia.org/wiki/State%E2%80%93action%E2%80%93reward%E2%80%93state%E2%80%93action
Это всё не про Deep Learning. Deep Learning выполняет роль аппроксиматора, но вообще, здесь можно использовать практически любой аппроксиматор.
Имеет смысл так же глянуть, что такое AIXI – это непрактичная, но важная с теоретической точки зрения модель, она полезна, чтобы теоремы об ИИ доказывать.
https://turchin.livejournal.com/488550.html
Довольно простая статья… На фоне остальных статей по AIXI. Я не знаю, почему люди не могут описать эту идею проще.
Ещё по теории сильного ИИ и по обоснованию, почему плох DL (и символьные ИИ тоже) я бы порекомендовал вот этот сайт:
http://aideus.ru/
И ещё вот место, где люди тестируют свои модели интеллекта:
https://gym.openai.com/
Приветствую!
Я смотрю на проблему сильного ИИ с точки зрения эволюции живых существ. Механизм интеллекта развился как способность адаптироваться к окружающей среде и обеспечить выживание вида в самых разных условиях.
Причем, усложнение строения нервной системы шло постепенно. Соответственно основано все на простых, надежных механизмах. Теории и концепции ИИ, основанные на математических понятиях мне кажутся не правдоподобными, именно на уровне сознательной, рассудочной деятельности, которая максимально универсальна. На низком уровне (распознавание образов, рефлекторное поведение) вполне могут работать какие-то механизмы выражаемые математическими теориями.
Тогда накину ещё вот это)
https://habr.com/ru/company/piter/blog/456160/
Как люди эволюцией делали ИИ.
Ну и статья о лично моих экспериментах в этой же области)
https://habr.com/ru/post/323648/
Это не та эволюция, что в природе – особи не взаимодействуют. Тем не менее результат получается в каком-то смысле более биологичным, чем у RL.
И… Не знаю, может, вам это окажется важным. А может, и нет. Есть условно два подхода к ИИ – когнитивные архитектуры (передираем идеи из природы) и инженерный подход (отталкиваемся от того, каким мы хотим видеть ИИ, и делаем). Очень похоже, что ни один, ни другой подход сам по себе несостоятелен. “Природный” – потому что сложно понять, зачем в мозгу нужно то-то и то-то. Может, это баг, и его надо удалить? Инженерный – потому что… Ну есть у нас формула идеального интеллекта, и что? Его всё равно надо обучить, а алгоритм обучения у нас отстойный. Природа потратила кучу времени на эволюцию, а у нас столько времени нет. Учёные пытались сделать свёрточную нейросеть чем-то типа эволюции, и не смогли – слишком долго. А вскрыли череп – и передрали конволюционку в момент, и после этого нейронки стали рулить в анализе картинок.
Заходите к нам в телегу )
——
Сильный искусственный интеллект. Список постов.
https://deep-econom.livejournal.com/240140.html
—-Telegram—-
Сильный искусственный интеллект. Моя группа в Telegram.
AGI/HLAI/SAI-SCA – сильный искусственный интеллект – системный кибернетический подход.
SCA (Systemic-Cybernetic Approach).
https://t.me/AGIRussia_SCA