Фото: надано Олексієм Молчановським Олексій Молчановський
Нова хвиля
Так чи інакше про ризики штучного інтелекту говорять десятки років, відтоді як дослідники почали працювати над цією технологією. Чому останнім часом спостерігаємо такий сплеск уваги до питань безпеки? Що всіх так схвилювало?
Ви абсолютно праві, це давня історія. Якщо дивитися на витоки штучного інтелекту, то це середина ХХ століття. І про загрози говорили більше або менше завжди.
Зараз ми спостерігаємо те, що називають «глибоке навчання», або англійською «deep learning», за допомогою штучних нейронних мереж. Попри те, що сама технологія розроблена давніше (це 1970–1980-ті роки), значний її стрибок відбувся з 2012 року. Відтоді вона почала активно розвиватися за рахунок двох складових. По-перше, дуже сильно зросли обчислювальні потужності.
І коли говорять про перспективи бізнесу в цьому секторі, то поки що найбільше виграють ті, хто продають кирки, як у тій золотій лихоманці. Приміром, компанія «NVIDIA», яка продає спеціальні обчислювані картки, так звані графічні обчислювальні одиниці GPU (спеціально розроблені для виконання великої кількості обчислювальних операцій паралельно. — LB.ua).
Друге — це дані. З початку 2000-х ми почали лишати багато цифрового сліду в інтернеті. І дані стали доступними. Це викликає багато питань, зокрема безпекових, пов’язаних з конфіденційністю, і правових, наскільки їх можна використовувати. Є різні погляди на це і різні кейси. Але то окрема тема.
І от воно зійшлося — більше даних плюс більші обчислювальні потужності. Зараз напрямок штучного інтелекту дуже перегрітий. Багато людей цим займаються. Є величезні наукові конференції, які збирають стільки людей, як футбольні стадіони. Квитки розкуповують на такі заходи за лічені хвилини. І це дуже-дуже все, англійською, overhyped, перенасичено.
Подібна хвиля, трохи менша, була у 2016-му, коли, пам’ятаєте, з’явилися застосунки на мобільні телефони: робиш фотографію, а програма обробляє її в стилі Ван Гога. Тоді теж всі захоплювались, зараз захоплюються чимось іншим. Я припускаю, що наша увага знову перемкнеться на щось третє. І за пару років ми говоритимемо про якісь інші штуки.
Тобто це така певна бульбашка?
Не можна говорити, що це суто бульбашка. Насправді є ґрунтовні технології, які залишаться з нами. А чергову хвилю розмов про ризики збурила поява технології ChatGPT від OpenAI, точніше цього сервісу. Тому що технологія GPT — це просто абревіатура моделі штучного інтелекту, яка навчена працювати з природною мовою. Вона стала ще потужнішою і помітною для пересічного користувача.
Фото: uploads-ssl.webflow.com
Зрозуміло, що в принципі ця штука так чи інакше зачіпає людство і є загрози зловживання. З іншого боку, хоч термін “штучний інтелект” не дуже вдалий, але він теж створює певний контекст. Люди цього лякаються. Ми суто психологічно починаємо приписувати технології якісь людські якості — антропоморфізуємо. Усе це накручується і котиться сніговою кулею.
От уже і Сем Альтман, який є засновником і власником компанії «OpenAI», має тур по різних країнах, де зустрічається з урядовцями і прямо закликає регулювати сферу. Тобто він розуміє ризики.
До речі, в цьому контексті цікава сама історія компанії «OpenAI». Бо навіть у назві була закладена її місія — «Open Artificial Intelligence». Компанія проголошувала ціль зробити розробку штучного інтелекту прозорою. І на перших етапах вона і справді була такою — усі свої дослідження вони публікували у відкритому доступі. Це стосується, зокрема, першої моделі GPT-1. Але коли вже була готова модель GPT-2, вони злякалися і припинили це робити. Бо побачили, що це може призвести до маніпуляцій, поширення фейк-ньюз, тобто до використання технології для небезпечних цілей.
І конкуренція в сегменті посилилась.
Так. У якийсь момент вони і самі змінилися. Кілька років тому OpenAI отримала інвестиції від «Microsoft» у розмірі $1 млрд, а у 2023-му — вже $10 млрд. Але, напевно, Альтман пам’ятає свою першочергову місію і відповідальність, тому і виступив перед комісією Сенату США, щоб поговорити про це все. Що цікаво, він заявив, що вони поки що не тренують нову версію GPT-5.
Фото: politico.com Генеральний директор OpenAI Сем Альтман під час слухань у Сенаті щодо штучного інтелекту
Проблеми довіри
Які побоювання найбільші на цьому етапі? Багато що озвучують: від непрозорості самих систем, дискримінаційності, яку містять дані, до залежності від ШІ, втрати людського зв’язку та взагалі зникнення людства. Тобто очевидно, що є ті проблеми, з якими зіткнулися вже зараз, є, ті, що з’являтимуться найближчим часом, а є гіпотетичні?
Так, ці загрози мають багато вимірів. Місцями ці моделі працюють краще за людину. Нам уже в деяких випадках важко розпізнати, де є текст, згенерований штучним інтелектом, або де є зображення, створене ним. І це створює певні ризики.
Відома історія, коли німецький фотограф надіслав зображення, згенероване штучним інтелектом, на кілька конкурсів фотографій. І на одному з них виграв. Це була така свідома провокація. Він хотів звернути увагу на це. Є заклики до великих компаній, щоб вони почали маркувати контент, згенерований штучним інтелектом.
Це одна річ. Інша — зміни економічні, тому що це впливає на ринок праці. Тут не варто говорити про зникнення професій. Коректніше казати про трансформацію робочих місць і професій. Проникнення цих технологій буде більше в інтелектуальну сферу, і ці технології треба вміти використовувати. Наприклад, найменшого впливу зазнає будівництво, тому що насправді вмикається суто економічний фактор. Вам куди легше найняти різноробів задешево, які виконуватимуть і підлаштовуватимуться під ваші задачі, ніж мати складного робота, який час від часу ламатиметься і буде дуже дорого коштувати.
Є, очевидно, і поточний контекст, пов’язаний із застосуванням штучного інтелекту в озброєнні. Це теж не нова історія, просто зараз про це почали говорити більше. Інколи малюють доволі фантастичні сюжети, приміром, про те, що у війнах майбутнього воюватимуть роботи. Поки що ми бачимо, що це не так і, приміром, Росії дешевше гнати людей, і це знову економічний фактор.
Можна, приміром, казати про повністю автономні системи, скажімо, безпілотні автомобілі. Тут відповідно постає питання, наскільки вони надійні, правильно чи неправильно приймають рішення, розпізнають пішоходів, і як переконатися, що ШІ не наробить шкоди. Це такий очевидний ризик.
Але куди більше ми бачимо ризиків, пов’язаних з тим, що ця система використовується як допоміжна під час прийняття рішень людиною.
Фото: Bing Image Creator
Наприклад?
Дуже простий приклад. Є діагностика захворювань. Ми хочемо частину цього процесу автоматизувати. Приміром, говоримо про рак легень. Хочемо, щоб ШІ аналізував знімки, результати скринінгів і сповіщав про перші сигнали захворювання швидше, ніж людина. А людина-лікар уже на основі того, що йому сказала система, має поставити діагноз, призначити лікування і так далі.
Або, наприклад, система найму на роботу. Такий кейс уже є. «Amazon» мали проблеми з валом резюме і вирішили автоматизувати перші етапи відбору кандидатів. Логічне рішення. Але в результатах виявили упередження до жінок-кандидаток. Бо систему штучного інтелекту будували на історичних даних, які містили цей дискримінаційний момент.
Система навчилася цієї упередженості фактично в нас самих, відобразивши те, що було в даних, правильно я розумію?
Абсолютно. Ми усвідомлюємо, що в даних є певні упередженості. Часто ми хочемо це виправити, і є різні способи, як це зробити. Якщо говорити конкретно про цей приклад, то не можна просто взяти і викинути з анкет рядок “стать” і очікувати, що це змінить ситуацію.
Система розумніша й обійде це.
Так, тому що її мета — узагальнювати. І для нас не завжди очевидно, на основі чого вона робить висновки. Бо шукаючи ці закономірності, система користується куди складнішими патернами, яких ми просто не можемо навіть охопити своєю головою.
Ми спираємося на допомогу штучного інтелекту для того, щоб приймати якісь рішення. І якщо ці системи не будуть надійними, якщо вони не будуть достатньо прозорими, ми не розумітимемо, як вони працюють, а вони стають усе складнішими, то як ми можемо покладатися на них? На початках може видаватися, що все класно, все ніби так добре, спрощує роботу і так далі. Але потім у якийсь момент це заведе нас у пастку: ми довірятимемо технології більше, а вона збоїтиме. І це не буде її якийсь, знаєте, злий намір. У штучного інтелекту намірів узагалі немає. Просто ми йому надто довірилися.
Свіжий приклад з юридичної практики. У США юрист підготував обґрунтування позиції в суді на кейсах, які згенерував йому ChatGPT. А потім вийшло, що то насправді були не судові рішення, а “галюцинації” системи. Чат вигадав і самі судові рішення, і цитати, які були наведені в записці, і цього ніхто не перевірив.
Як студент: що не знає, то придумає.
Я і сам стикався з таким. Наприклад, просив ChatGPT навести мені якісь факти з посиланнями на джерела. І він вигадував статті. Жодна з них не гуглилась.
Фото: facebook/Oleksii Molchanovskyi
А як він це робить? Як вигадує?
Ну от слово “вигадувати” — це знову ж таки про людське.
Тоді краще так. Що стоїть за цими “галюцинаціями”?
Для того, щоб найкраще це зрозуміти, треба уявити, як він працює. У вас є величезний корпус текстів, на якому він вчиться. Він дивиться на них послідовно, як ми читаємо по рядках. При цьому в нього є “віконце уваги”, в яке поміщається, скажімо, 100 слів. Це умовна цифра, бо скільки розробники беруть слів — то комерційна таємниця.
Отже, він бере, умовно кажучи, 100 слів і дивиться, яке йде слідом після цієї послідовності. Потім це віконце посувають на одну позицію – і все повторюється. Таким чином система шукає певні патерни і виводить, яким буде з найбільшою вірогідністю наступне слово в ланцюжку.
Саме так він узагальнив, як виглядають наукові статті і цитування. І коли я попросив чат навести їх, він сказав: ось. А там ті слова, які ти попросив його написати, якісь імена, назви, якісь джерела, роки, сторінки. Усе те, що є в бібліографії. Тому що він завчив структуру, як воно має виглядати. Але для нього за словами нічого не стоїть. Звідси і беруться такі “галюцинації” системи.
Непрозорість системи
Виглядають ці “галюцинації” дуже правдоподібно, якщо не перевіряти.
Річ у тім, що в ШІ немає моделі світу, немає розуміння, що за словами є реальний об’єкт, який десь там існує у світі фізичному. І це таке фундаментальне обмеження.
Спробую коротко пояснити. У галузі штучного інтелекту згрубша всі підходи можна розкласти на два основні напрямки. Перший домінував на початку, і його можна охарактеризувати як дедуктивний спосіб мислення. Ми маємо якісь загальні правила і уявлення і методом логічного розмірковування приходимо до певних окремих висновків. Для того, щоб це працювало, нам потрібно те, що називають моделлю світу — world model.
Що це означає? У кожного з нас у голові є модель фізичного світу. І для людини не проблема мати різні моделі для різних ситуацій. Це такі контексти. Їх у нас ніхто не завантажує. Просто коли ми маленькі, ми вивчаємо їх, спостерігаємо, активно взаємодіємо зі світом, наприклад, щоб опанувати базове розуміння законів фізики — інерції, гравітації і тому подібне. Ми інтуїтивно розуміємо, як рухатимуться різні об’єкти, якщо ми штовхнемо їх або підкинемо.
А є другий підхід, це власне метод індукції. Коли ми рухаємося від прикладів і намагаємося щось узагальнювати. І тоді все залежить від прикладів, на яких ми вчимося. Власне, у цьому і полягає сучасний підхід глибокого навчання. Ключовими там є дані, тому що машина вчиться виловлювати певні патерни в тих даних, які вона спостерігає.
Фото: internetdevels.ua
Оцей другий підхід класно масштабується. І в цьому напрямку біжать 90% науковців зі сфери штучного інтелекту. Ми знаємо, як це працює: ти даєш системі більше даних, більше зразків, і вона може краще це узагальнити.
Перевага ChatGPT у тому, що йому згодували просто величезну кількість текстів. Не сказати, що це елементарні технології, але базово — це математика. Коли ви з ним спілкуєтесь, він бере слова, які ви йому написали, і, користуючись своєю величезною моделлю, на якій він навчився, на рівні імовірності намагається передбачити, яке наступне слово треба сказати.
Дуже важливий момент у тому, що ця технологія зараз функціонує на рівні спостережень. Тобто вона може тільки сприймати інформацію і віддавати її на вихід. Вона, приміром, не взаємодіє зі світом. Ви до нього звертаєтесь, як до такого оракула. А він не відстрілює, що він говорить. Хоча насправді воно має сенс, тому що це досвід людей у концентрованому вигляді, який він прочитав.
Уявіть собі гігантську бібліотеку. Мозку людини не вистачить, щоб це все опанувати. А тут поруч є штука, яка узагальнює її вміст. Тобто воно просто стискає час, який потрібен на обробку цих даних, у тисячі разів. Але слід пам’ятати, що він видає слова, тому що вони статистично були в такий спосіб закладені в якихось джерелах. І узагальнюючи, він не завжди може прийти до гарантовано правильних висновків.
Так у згенерованих штучним інтелектом картинках на руці виявляється 6 пальців.
Він сприймає зображення просто як пікселі. Він не розуміє, що він малює руку, перо, птаха, сонце. Це просто набір пікселів. Так вони склалися. Тобто він не знає, що коли я показую долоню, то в мене там всередині кістка. І ця кістка не може якось так викривитися в неприродний спосіб. Або що в мене там три суглоби, а не п’ять суглобів. Якщо ми додамо системі модель світу, то це буде наступний щабель.
Ті, хто глибоко цим займається, намагаються шукати якісь гібридні рішення. І більшість з них зараз виглядає, як спроба зшити такого Франкенштейна з різними підходами. У якихось місцях воно може показувати результат, але на великому масштабі не працює. Мені здається, що в нинішню систему ви не зашиєте цю модель світу, як би не старалися, треба вигадувати щось інше. Тому поки що це просто, знаєте, такий фокусник, який добре жонглює пікселями. Його картинки видаються класними, але часом він може намалювати дві голови.
Фото: надано Олексієм Молчановським Олексій Молчановський
Що ми знаємо про джерела? Який баланс між тим хорошим, що він з’їдає навчаючись, і тим шлаком, якого багато в даних?
Вам ніхто не скаже про цей баланс, очевидно, його неможливо поміряти, і тут багато насправді суб’єктивного. Правильна відповідь, як на мене, в тому, що ми просто повинні розвинути в собі достатньо критичного мислення, особливо в чутливих питаннях. Зараз ця технологія не може підтвердити свої висновки. І ми знову повертаємося до моделі світу, якої в нього немає. Він видає поради, але не розуміє, що за цими порадами стоїть. У нього немає цього змісту. Усі, хто займається штучним інтелектом, розуміють ці проблеми. І намагаються ув’язати результат з джерелом, щоб було якесь, скажімо, посилання на обґрунтування.
Але що це вирішує?
Ну так, бо джерела є різні. Тобто ти можеш прийти на якийсь там блог психолога-самоука або на якісь наукові статті. Хто це вирішує? Вирішує насправді, зрештою, компанія-розробник. І це давня історія. Як Facebook, Twitter, вони можуть обмежувати і перекручувати вашу стрічку новин і таким чином формувати ваше сприйняття світу. Так само і тут компанії будуть обмежувати і формувати те, що ви споживаєте. Ми повинні усвідомлювати це і відповідно діяти.
Бачите, тут є спектр сприйняття технології. Можна бути максимально скептиком взагалі, нехтувати цими технологіями, бути таким лудитом і все. Або можна безоглядно довіряти. Обидві крайності малокорисні і малоефективні.
У когось прочитала, що нам потрібен новий вид скепсису у зв’язку з розвитком штучного інтелекту.
Так і є. Насправді мене часто запитують, як це впливає на освіту. Банальний приклад. Немає сенсу давати завдання — напиши реферат. Це вже пройдений етап. Але ця технологія може тебе підсилити і зробити процес навчання куди цікавішим. Ти можеш дати студентові завдання — подискутуй на таку-то тему з ChatGPT, спробуй знайти недоліки в його аргументації і напиши есе з обґрунтуванням цих недоліків. Це розвиває критичне мислення.
Фото: facebook/Oleksii Molchanovskyi
А непрозорість технології, про яку говорять як про одну з небезпек штучного інтелекту, вона з чим пов’язана? З нерозумінням, що там всередині системи відбувається?
Власне так. Штучні нейронні мережі так називаються, тому що вони побудовані за аналогією з нейронними мережами людського мозку. Ми розуміємо загальні принципи, наприклад, як ми вчимося, як передаються сигнали між нейронами, і ми це кодуємо в моделях, щоб вони робили так само.
Системи, засновані на технології глибокого навчання, іноді забороняють використовувати в певних сценаріях. Скажімо, ви просите позику і вам відмовляють. У деяких країнах законодавство зобов’язує банки пояснити причину. І якщо вони не пояснюють, чому була відмова, то клієнт може подати до суду. У таких випадках банки не можуть використовувати технологію глибокого навчання як допоміжну, тому що вона виглядає, як такий чорний ящик, якому дали на вхід інформацію про клієнта, його дохід, поточний статус, вік, професію, тому подібне, а на виході отримали просто так або ні.
Усередині цих штучних нейронних мереж, якщо взяти моделі GPT, сотні мільярдів зв’язків. Це складні багатошарові математичні моделі з великою кількістю параметрів і взаємодій. І ви просто не можете прослідкувати, як система приймає рішення, яким є точний механізм виявлення закономірностей. Можна подивитися, що такий-то нейрон має таке-то значення, бо вони мають значення від нуля до одинички. Але що означає кожен нейрон, зрозуміти неможливо. Тобто є проблема з інтерпретованістю штучних нейронних мереж.
Але якщо ми не можемо до кінця осягнути, як система функціонує, принаймні ми мали б знати, на яких даних вона тренувалась і які алгоритми вона використовує, чи можемо ми ці дані перевірити й валідувати. Або ж вони належать якійсь компаній і доступ до них закритий. Ми довіряємо тим технологіям, у яких є ця прозорість. Це можна порівняти зі складом, який ми читаємо на пакованні продукту в супермаркеті. Якщо в мене, приміром, алергія, то склад критично знати.
Звідси випливає і непередбачуваність систем штучного інтелекту?
Є дуже відомий випадок, пов’язаний із сервісом «Google Photos». Якщо у вас Android, то ваші фотографії завантажується туди і Google може автоматично їх підписувати. Кілька років тому трапилась ситуація, коли чорношкірих людей він підписав як горил. Очевидно, що це був великий скандал, але виправити цю проблему не так легко. Технології, засновані на глибокому навчанні тим і відрізняються від звичайного програмування, що не можна залізти всередину цієї нейронної мережі і прописати якісь правила. Якщо ось так, то не роби цього.
Єдине, що тоді зміг зробити Google, просто заборонити підпис “горила”. Тобто навіть якщо ви завантажите звичайну фотографію з горилою, усе одно її не підпишуть. Вони і дотепер не виправили цього. Горили немає. Що це означає? Це повертає нас до даних, на яких навчаються системи. Ми повинні переконатися, що ці дані репрезентативні і там немає помилок. Наприклад, нам потрібна достатня кількість зображень чорношкірих людей, які підписані, аби система навчилася правильно упізнавати їх. А це означає, що потрібно зібрати ці дані, вручну їх розмітити, підписати. І потім перенавчити модель. Але це дуже-дуже великі затрати.
Фото: finance.yahoo.com
Захопити людство
Узимку репортер «The Whashington Post» поспілкувався з чат-ботом пошукової системи «Bing», і в них вийшла така несподівано дуже людська розмова. Зрештою, чат навіть “розізлився” і “відчув себе зрадженим”, коли дізнався, що насправді спілкується з журналістом. Звідки ця емоційність, від якої трохи лячно?
Усе знову ж залежить від того, на яких даних ми навчили систему. Тобто якщо її навчили на текстах, які писали живі люди, на більш публіцистичних текстах, а не сухих, то чат і буде так відповідати. Розробникам треба витратити час, щоб прибрати це емоційне забарвлення. ChatGPT, приміром, доволі емоційно нейтральний.
З подібною проблемою зіткнувся Google, який розробляє чат-бот «Bard» на основі ШІ. Вони його довго тестували, і були витоки інформації від команди. Мовляв: та в нас уже чат кращий, ніж ChatGPT, але Google його не публікує. Бо їх змусили тестувати, щоб Bard був емоційно нейтральним. Нам здається: о, клас, він такий привітний. Але ж є темна сторона цього, коли він починає вас булити або робити щось подібне. Тому зараз найкраще тримати цю емоційну нейтральність.
Є й інший момент. Ми вже навчилися користуватися пошуком Google, знаємо, як йому поставити запити. Ми не звертаємось до нього: дорогий гугле, порадь мені, будь ласка, те і те. Ти його валиш ключовими словами. А у випадку з ChatGPT інша логіка запиту.
Яка створює враження, що ти спілкуєшся з людиною. Це ніби підсилює довіру до нього чисто психологічно.
У мене була дискусія, чи треба з ним бути ввічливим і дякувати кожного разу після його відповіді.
Моя донька впевнена, що треба. Каже, що він тоді краще працює.
Бачите, дорослі люди мені теж відповідають, що треба. Але з інших міркувань. Кажуть, ми ж не знаємо, як воно далі розвиватиметься, і краще заробити собі позитивну карму перед ним, щоб потім він не знищив тебе в перших рядах (сміється).
Наскільки взагалі можливо ці ризики, закладені в системі, подолати?
Воно долається поступово. Науковці розуміють їх і роблять свою роботу, можливо, не так швидко, як ми хотіли б. Є напрямок відповідального штучного інтелекту — Responsible AI. І там працюють над тим, як вирішити власне етичні питання. Є напрямок інтерпретованого штучного інтелекту, який спрямований на те, щоб зробити ці технології прозорими. Можливо, ми прийдемо до зовсім інших моделей. Якраз науково це тим і цікаво, що ти ніколи не знаєш, що тебе чекає за поворотом.
Фото: надано Олексієм Молчановським Олексій Молчановський
Регулювання цієї сфери — це така собі матеріалізація наших рефлексій про небезпеки і ризики. Коли з’явився перший лист від дослідників, то багато науковців сказали, що не можна зупинити розробку, бо це все одно, що обмежити науковий поступ. Тобто наука має рухатися далі, а регулювати треба кінцевий інструмент — продукти, сервіси. Десь це буде більше, десь менше.
Ми бачимо зараз, що Європейський Союз, як завжди, попереду в контексті регулювань. Уже є проєкт закону про штучний інтелект — AI Act. І вони вирізняють певні рівні загрозливості цих технологій. Там, наприклад, найбільш загрозливі — це такі, які маніпулюють свідомістю або прийняттям рішень людей, тобто можуть вводити їх в оману. І це дозволяє відповідно накладати обмеження, проводити перевірки, щось забороняти.
Тобто на одному кінці ризиків і небезпек технології є спектр таких конкретних речей, які ми бачимо вже зараз. А є інший полюс.
На якому, приміром, маячить загроза існуванню людства. Чим лякають і самі дослідники.
На цьому етапі я не спекулював би розповідями про те, що от з’явиться штучний інтелект, який вийде з-під контролю, буде настільки краще працювати за людину, що він просто нас захопить і це буде якийсь там, не знаю, фільм «Матриця». Штучний інтелект уже перевищує нас у якихось задачах, це очевидно. Але треба реалістично дивитися на нього. Це технологія, розроблена для виконання специфічних задач. Їй недосяжне багато з того, що властиве людському мозку. Та й ми ще багато не розуміємо про те, як функціонує наш мозок, щоб це відтворити. І, до речі, ці технології нам дозволяють, зокрема, краще зрозуміти, як ми самі працюємо, приймаємо рішення.
Але на цю тему загрози зникнення людства дійсно багато дискусій. І ви можете знайти цитати провідних науковців, які реально бачать у цьому ризики. Річ у тім, що ми перебуваємо в такій активній фазі, де дуже багато слів, багато досліджень і, відповідно, дуже важко вибудовувати прогнози. Коли ми заходимо в процеси прогнозування, я завжди згадую, що про це каже Деніел Канеман, зокрема. У нас є когнітивна хиба: ми переоцінюємо те, що в ближчій перспективі, і погано даємо раду з прогнозуванням надовго.
Час від часу навіть дослідники дозволяють собі використовувати слово “свідомість” у контексті штучного інтелекту. Що вони мають на увазі?
Це так само спекуляції. Для мене це, напевно, такий лакмусовий папірець, який дозволяє зрозуміти, наскільки людина, вибачте за тавтологію, свідомо ставиться до питання. Вона має розуміти, де можна використовувати це слово, а де це недоречно. Тому що воно несе дуже великий контекст і збурює всі ці страхи про роботів, які захоплюють людство.
Винесімо свідомість за дужки, і тоді ми можемо цю технологію прийняти. Це буде просто черговий інструмент. Я максимально інструментально до цього ставлюся.
Олена Струк, кореспондентка LB.ua