Неділя, 22 Грудня, 2024

«Кембрійський вибух» – майбутнє комп’ютерів

У археології та біології є поняття «кембрійський вибух» – це момент в часі, коли на планеті з’явилися тисячі видів істот. Їхня поява була такою раптовою, що цей момент назвали вибухом. Електроніка, схоже, повторює сценарій біологічного життя і в наступні десятиліття можна очікувати комп’ютерного кембрійського вибуху. Ось ще кілька прогнозів щодо того, як розвиватиметься обчислювальна техніка.

Останні півсторіччя обчислювальна техніка розвивалася за досить простим сценарієм, і використанням кількох архітектур, таких як ARM та x86. Однак нині уже очевидно: галузь в технологічному тупику. Подальше нарощування ядер та мегагерців уже не приносить значного прискорення, а коштує все дорожче.

Кінець закону Мура швидко призведе до появи набагато більш дивного обладнання. Десятиліття попереду будуть кембрійським вибухом дивного обладнання.

Існуючі архітектури, такі як x86, ARM або RISC-V, стануть історією. Основна концепція обчислювальної техніки як машини, що виконує потік інструкцій, перемішуючи дані туди-сюди між процесором і пам’яттю, з часом зміниться на користь більш екзотичних моделей.

Застарілий код усе ще можна буде запускати через емуляцію. Підтримка рідного апаратного забезпечення зупиниться. Сучасне обладнання вже витрачає >99,9% своєї складності та енергії на модні функції, як непорядкове виконання, узгодженість кешу тощо.

Процесори загального призначення стануть на кілька порядків швидшими навіть після закінчення закону Мура, але лише завдяки компромісу між продуктивністю та підтримкою минулих технологій.

Апаратне забезпечення почне менше відповідати людським моделям, а більше фізиці. Комп’ютери складаються зі справжніх атомів, використовують реальну енергію, виробляють реальне тепло, займають реальний простір і потребують реального часу, щоб розіслати біти в різні місця цього простору.

Це речі, які не можна абстрагувати без серйозних витрат обчислювальної потужності. А без закону Мура нарощування такої потужності стає неможливим.

Значна частина обов’язкового переосмислення дизайну апаратного забезпечення та сумісності, зосередженої на емуляції, дозволить виправити старі помилки в проектуванні. Наприклад, сучасні ОС сьогодні містять лише мільйони рядків коду через довільні апаратні рішення 90-х років.

Кремнієві компілятори стануть звичним явищем. У відповідь інноваційні фабрики розширять послуги обміну пластинами. Незабаром можна буде розробити власний процесор або ASIC, завантажити файли на веб-сайт TSMC, заплатити 500 доларів і отримати партію з 10 чипів до ваших дверей через кілька місяців.

Розробка апаратного забезпечення стане майже таким же звичним явищем, як і інженерія програмного забезпечення. У короткостроковій перспективі неминучі фреймворки дизайну чипів створять величезні проблеми безпеки, запечені в незмінному кремнії.

Інженери-програмісти не готові до розробки апаратного забезпечення. Низькі витрати та низькі обсяги спільного прототипування пластини дещо пом’якшать проблеми, але врешті-решт потужний інструментарій формальних методів, який десятиліттями вже використовувався апаратними інженерами, буде змушений перейти в руки набагато ширшої аудиторії.

Комп’ютерна індустрія подолає свій ірраціональний страх перед Тюрінгом. Нерозв’язні проблеми не є необчислюваними (це окремий клас обчислюваності), а скоріше є обчислювальним еквівалентом ірраціональних чисел; неможливо точно обчислити, але досить легко приблизно. Золотий вік аналізу коду та формальних методів настане, коли цей недоречний страх зникне.

У міру того, як апаратне забезпечення стає більш фізично обмеженим, воно одночасно ставатиме більш дивним. Однією з перших форм, яка вже починає з’являтися в деяких нішевих парадигмах високопродуктивних обчислень, є мозаїчна архітектура: велика кількість маленьких простих ядер у регулярній сітці.

Обчислення на плиткових архітектурах мають багато спільного з програмуванням розподілених систем, хоча й з більшою передбачуваністю та в набагато меншому масштабі. З причин, пов’язаних з фізикою, обчислення даних є дешевими, а переміщення даних – відносно дорогим.

Операційна система почне нагадувати сервер, який займає певну кількість ядер на чипі, системні виклики замінюються простим протоколом на основі пакетів, а не покладаються на перемикання контексту. Ядра, призначені для конкретних програм або служб, зведуть до мінімуму необхідність переміщення великих обсягів даних, ефективно зберігаючи кеші спеціального призначення.

Комп’ютерна пам’ять, як правило, більше використовуватиме арени пам’яті та подібні методи. Це не тільки забезпечить переваги продуктивності під час звільнення пам’яті, але також дозволить легше аналізувати код і краще контролювати локальність даних (що буде одним із найважливіших факторів продуктивності).

У поєднанні зі зростаючою актуальністю фізичної локалізації даних концепція «розподілу купи» — змішування майже всіх даних у програмі у великій однорідній області — поступиться місцем парадигмі, де пам’ять ділиться на багато виділених областей із визначеним просторовим плануванням.

Інформатика як математична галузь стане менш інтровертною та почне змішуватися з іншими галузями математики на набагато глибшому рівні. Вона почне більше нагадувати традиційні математичні галузі, такі як геометрія та статистична фізика.

Буде розроблено Розеттський камінь (камінь, який дозволив перекласти тексти на кількох древніз мовах) між обчислювальною технікою та багатьма, здавалося б, непов’язаними галузями математики та фізики, створюючи незліченну кількість революційних ідей.

Значна частина цих ідей з’явиться від спроб реверсивного проектування глибокого навчання та мозку. Розроблені там інструменти почнуть впливати на інструменти, призначені для більш традиційної розробки програмного забезпечення. Наші існуючі парадигми програмування та мовні конструкції навряд чи переживуть цей перехід, а обчислення будуть для нас майже невпізнанними сьогодні.

Це чудово поєднується з апаратним забезпеченням із фізичними обмеженнями. Існує тісний зв’язок між зберіганням даних, затримкою зв’язку/пропускною здатністю та основною геометрією. Ці стосунки з часом ставатимуть дедалі актуальнішими.

Зусилля зворотного проектування в машинному навчанні та нейронауці принесуть значні плоди. Незабаром послідують спроби зворотного проектування в інших частинах біології.

Подібно до того, як фізика безпосередньо надихнула величезну частину найпотужнішої сучасної математики, абсолютно нові парадигми обчислень виникнуть у результаті вивчення обчислювальних систем у живих істот.

«Сингулярність» не вдасться матеріалізувати. Величезна сила людської винахідливості виявиться не просто результатом великих мізків, а радше продуктом людської мови, що дозволяє нам стояти на плечах гігантів, гігантів, які самі стоять на плечах інших. Вплив ентропії реального світу стане більш релевантним вузьким місцем на шляху прогресу.

Штучний інтелект на рівні людини матеріалізується завдяки теоретичним дослідженням нейронаук. Машини створять багато ледь помітних відхилень від людської поведінки. Вони, хоч і будуть справді розумними, матимуть серйозний соціальний дефіцит і будуть абсолютно нездатні функціонувати в суспільстві. Пройде багато десятиліть, перш ніж тонкощі людської поведінки будуть зрозумілі достатньо добре, щоб відтворити у машині функціональну людську істоту.

Нейронні імплантати, такі як Neuralink і Synchron, стануть доступними та матимуть деякі цікаві можливості, і будуть особливо корисними для того, щоб допомогти інвалідам відновити функції.

У короткостроковій перспективі мультисенсорні обчислення та сенсорна заміна/посилення стануть набагато ефективнішим способом отримання переваг. Інструменти сенсорної аугментації та заміщення отримають подальший розвиток і можуть деякий час стати більш популярною альтернативою для людей з обмеженими можливостями для відновлення функціональності, ніж інвазивні імплантати.

Будуть розроблені різні форми інструментів нетекстового програмування. Програмування на основі звуку буде доступне для незрячих програмістів, а також для тих, хто, можливо, захоче просто кодувати за допомогою розмови з комп’ютером під час прогулянки.

Тактильний зворотний зв’язок стане більш поширеним і вдосконаленим у пристроях, подібно до HD Rumble у Nintendo Switch.

Нинішня хвиля VR загалом виявиться помилковою. Справжня перевага віртуальної реальності полягатиме в значному збільшенні пропускної здатності даних, які можна отримати з мозку, а також у збільшенні сенсорного діапазону взаємодії людини з комп’ютером. Цей урок, імовірно, доведеться засвоїти важким шляхом, ймовірно, збанкрутуючи певну технологічну компанію з трильйонами доларів, яка зараз робить ставку на віртуальну реальність.

Доповнена реальність виявиться набагато кориснішою, ніж віртуальна реальність. Ми розвинули мозок, щоб краще орієнтуватися в навколишньому світі, а не втекти у світ фантазій.

Будь-яка країна, яка побачить будь-яке широкомасштабне впровадження технологій у стилі метавсесвіту, зіткнеться як з антиутопією, так і з швидким економічним крахом. Симулятори роботи у віртуальній реальності не ставлять їжу на стіл і не запускають фабрики, щоб виробляти мікросхеми, без яких така технологія була б неможливою.

З іншого боку, доповнена реальність доповнить багато дуже складних і технічних робіт і зрештою виявиться дуже економічно цінною.

Квантові обчислення виявляться корисними в певних сферах, але, ймовірно, не зламають жодної реальної криптографічної системи. Просто дуже важко мінімізувати шум і помилки в квантових системах, як через декогерентність, так і через аналогову природу квантових систем.

Натомість квантові обчислення будуть найбільш корисними як інструмент для моделювання інших квантових систем. Це революціонізує матеріалознавство.

Будуть виявлені дивні квантові властивості, які згодом потраплять у комп’ютерні пристрої. На ринок з’являться екзотичні квантові сенсори всіх видів.

Методи фотолітографії, що лежать в основі сучасного виробництва мікросхем, почнуть використовуватися в багатьох інших технологіях. Мікрофлюїдика, MEMS тощо, а також, ймовірно, багато інших менш очевидних речей. Наприклад, електроди, які використовує Neuralink, уже розробляються з використанням цих методів.

У якийсь момент будуть відкриті деякі твердотільні квантові явища, які створять переконливі альтернативи транзисторам. Вони не замінять транзистори, а швидше призведуть до мікросхем, які поєднують транзистори з іншими пристроями, щоб виконувати складні логічні функції більш ефективно.

Логіка CMOS, яка протягом десятиліть була стандартною технікою для цифрової логіки, вже використовує комбінацію кількох різних типів транзисторів, оскільки це дає величезні переваги в енергоефективності, навіть якщо це приблизно подвоює складність схем. Розширення інструментарію за межі лише двох типів транзисторів ще більше ускладнить дизайн мікросхеми, але з часом може виявитися коштом, який варто заплатити.

Квантові обчислення вплинуть на класичні обчислення. Хоча квантові алгоритми може бути важко змоделювати на класичних комп’ютерах, їх все ж можливо змоделювати. Деякі виявляться досить корисними, щоб або стати загальними інструментами самі по собі, або надихнути на нові підходи до старих проблем.

Класичні обчислення зіткнуться з законом квадратного куба; площа поверхні масштабується швидше, ніж об’єм. Кількість ядер (і, отже, обчислювальна потужність) змінюється залежно від об’єму, тоді як пропускна здатність пам’яті та введення/виведення змінюються залежно від площі поверхні.

Звичайні програмісти будуть змушені фактично вивчити, як працюють кеш-пам’яті процесора та подібні системи (хоча вбудовані системи пам’яті майбутнього будуть дуже відрізнятися від тих, що будуть на сучасних чіпах). Одним із найважливіших факторів продуктивності та ефективності коду буде точне геометричне розташування даних у пам’яті. Дані займають реальний простір, і чим далі дані, тим більше часу та енергії потрібно для доступу до них.

Поки складно сказати, чи буде розв’язана проблема P проти NP найближчим часом. Але справді дивні властивості NP-повних проблем надзвичайно глибоко пов’язані майже з усіма проблемами, відомими сучасній математиці, і дуже погано вивчені.

Подальші дослідження цього предмета прискоряться протягом наступних десятиліть через їхню дивовижну корисність і широку застосовність, а також через те, що апаратне забезпечення майбутнього ідеально підходить для експоненційної складності таких алгоритмів.

Через те, що обчислювальне знаходження хімічної рівноваги є як мінімум NP-повним, здається ймовірним, що глибше розуміння розв’язувачів SAT також революціонізує наше розуміння біології та обчислень, які відбуваються всередині клітин. Це імовірно виявить, що багато з дивних потужних обчислювальних методІв, які ми зараз не можемо пояснити в розв’язувачах SAT, є хлібом і маслом біологічних систем.

Підхід «чорної скриньки» до машинного навчання закінчиться. Глибока лінь сучасного машинного навчання, яка створює величезні моделі штучного інтелекту з мінімальними зусиллями для їх зворотного проектування, буде розглядатися як помилка.

Супероптимізація стане домінуючою формою оптимізації коду. Інструменти розробки програмного забезпечення, засновані на синтезі коду, стануть звичним явищем. Може стати звичним, коли код включає блок точних констант, створених інструментом.

Машинне навчання дозволить легко підробити всі некриптографічні дані. Кращі інструменти програмного забезпечення та глибше розуміння P v NP прискорять це до ступеня, який ми зараз не можемо уявити. Вже минули часи «фото чи цього не було».

Єдиним реальним захистом від потужних і небезпечних технологій машинного навчання буде криптографія, яка, на щастя, також стане значно потужнішою.

За матеріалами: bzogrammer

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися