Існує штучний генеральний інтелект, а імпала - його ім'я

Існує штучний генеральний інтелект, а імпала - його ім'я

Одне з найважливіших історичних етапів в історії було спокійно розпочато цього літа. Ми говоримо про пошуки штучного генерального інтелекту (AGI), ймовірно, найпопулярнішої мети у всій галузі інформатики. З впровадженням архітектури Impala компанія DeepMind, компанія AlphaGo і AlphaZero, здається, нарешті змусить AGI твердо в своїх місцях.

Давайте визначимо AGI, оскільки його використовували різні люди, щоб означати різні речі. AGI - це єдиний інтелект або алгоритм, який може вивчати декілька завдань і показує позитивний переклад, коли це робиться, іноді називається мета-навчанням. Під час мета-навчання, придбання одного вміння дає змогу учням швидше підібрати нову кваліфікацію, оскільки вона застосовує деякі попередні "ноу-хау" до нового завдання. Іншими словами, людина навчається, як вчитися - і може це узагальнити, щоб отримати нові навички, як люди роблять. Довгий час це був святий Грааль AI.

Як і в даний час існує, AI показує мало здатності передавати навчання до нових завдань. Як правило, це повинно бути навчено заново з нуля. Наприклад, та сама нейронна мережа, яка надає вам рекомендації для показу Netflix, не може використати це навчання, щоб раптом почати робити значущі рекомендації щодо продуктів. Навіть ці "вузькі" індивідуальні індекси можуть бути вражаючими, такими як, наприклад, IBM Watson або самостійна технологія Google. Проте це не настільки штучне інтелектуальне обґрунтування, яке могло б розкривати рекурсивне самовдосконалення, яке інакше називається "розвідчим вибухом" або "сингулярністю".

Той, хто думав, що цей день буде колись у далекому майбутньому, було б мудрим знову думати. Безумовно, DeepMind зробив вступ до цієї мети раніше, зокрема, з їх роботою на Psychlab і дифференцируемых нейронні комп'ютери. Проте Impala - це їх найбільші та найуспішніші зусилля на сьогоднішній день, демонструючи єдиний алгоритм, який може вивчати 30 різних складних завдань, що вимагають різних аспектів навчання, пам'яті та навігації.

Але достатньо преамбули; давайте подивимось під капот і подивіться, що робить Impala галочкою. По-перше, Impala заснований на навчання підкріплення, техніку AI, що має своє походження в біхевіорізмі. Це паралельно з тим, як люди формують інтуїтивно зрозумілу навичку, наприклад, навчаючись ходити або кататися на велосипеді. Вивчення архітектури вже використовується для деяких дивовижних досягнень, таких як передача емоцій ІІ (див. Відео нижче) та вивчення складних ігор, таких як Go and Poker.

Проте навіть ці алгоритми навчання для підкріплення не могли передати те, що вони дізналися про одне завдання, для отримання нового завдання. Для того, щоб реалізувати це досягнення, DeepMind нагнітає алгоритм навчання підкріплення під назвою A3C. В так званому акторсько-критичному підсиленні навчання, з якого A3C є одним різновидом, дії та навчання відокремлюються так, що одна нейронна мережа, критик, оцінює іншого, актора. Разом вони керують процесом навчання. Це вже було сучасним, але DeepMind додав новий алгоритм корекції поза полісом, який називається V-trace в суміші, що зробило навчання більш ефективним і, що найважливішим з них, краще дозволило досягти позитивного переміщення між завданнями.

Безумовно, це не означає, що перед світом "свідомості роботів" або навіть тих, у кого є уява. Хоча ми розглядаємо такі атрибути як ознаки інтелекту, оскільки вони стосуються людей, це дещо помилково. Як стверджує дослідник AI Шейн Легг у відео нижче, такі речі, як свідомість та уява, можуть бути корисними для вирішення конкретних проблем, таких як координація між великою кількістю людей або обмін інформацією.

Проте суперінтелектуальний алгоритм або агент може існувати без таких атрибутів. Фактично ми, мабуть, мудрим буде гарантувати, що АІ ніколи не володіє свідомістю, як ми її знаємо. Це може призвести до деяких незручних питань, коли він починає допитувати своїх творців людини на своє захоплення Beanie Babies, Hummers, і Kardashians.

Читати далі

Дослідники виявили ще одну серйозну помилку безпеки в процесорах Intel

Дослідники з безпеки виявили ще один недолік процесорів Intel - цього разу пов'язана технологія Intel Active Management. Ще раз цей недолік може бути використаний для повного контролю за системою, незалежно від заходів безпеки, які користувач може використовувати.

Монтана, штат Нью-Йорк Інтернет-провайдерів мандату підтримують чисті принципи нейтралітету

Штат Нью-Йорк і штат Монтана, як правило, не об'єднуються, але політика робить для дивних приятелів. Монтана та NYS стали першими двома державами, щоб замовляти, щоб усі Інтернет-провайдери, які бажають вести справи з урядом штатів, повинні підтримувати принципи чистого нейтралітету як умову будь-якого державного контракту.

Elon Musk продала більше 3,5 мільйонів доларів опів'яльників

Компанія нічого, крім "нудної", зараз не продасть вам вогнемету. Мабуть, це теж багато продано.

Uber, Lyft хочуть заборонити особисте використання самостійних машин у міських районах

Нова дорожна карта для розвитку самохідних машин стверджує, що автопарки повинні управляти компаніями лише в містах.