Пакет заходів з цифрового спрощення, який буде представлений цього тижня, імовірно, принесе полегшення для компаній, що займаються штучним інтелектом, заявила технічна комісарка Хенна Вірккунен в інтерв’ю Euronews.
Європейська комісія планує внести «цільові зміни» до правил щодо штучного інтелекту наступного тижня, заявила Хенна Вірккунен, комісарка з питань технологічного суверенітету, безпеки та демократії, в інтерв’ю Euronews на технологічній конференції Web Summit у Лісабоні.
Закон про штучний інтелект, який регулює засоби штучного інтелекту на основі ризиків для суспільства, почав поступово застосовуватися минулого року. Однак документ постійно критикували великі технологічні компанії, а також адміністрація Дональда Трампа, які вважають, що він гальмує інновації.
«Наступний важливий етап [набуття чинності законом про ШІ] відбудеться в серпні наступного року. І тут ми дійсно стикаємося з викликами, тому що [технічні] стандарти ще не розроблені, а вони повинні бути готові за рік до наступного етапу», – сказала Вірккунен у вівторок.
«Ми маємо вирішити, як гарантувати правову безпеку для наших галузей, і саме це наразі обмірковуємо: яким чином підтримати наші галузі, коли немає відповідних стандартів», – додала вона.
Вірккунен зазначила, що зміни до закону про штучний інтелект, які будуть представлені 19 листопада, ще потребують офіційного затвердження Єврокомісією. Комісарка не захотіла сказати, наскільки далекосяжні ці зміни та чи йдеться в них про офіційне призупинення окремих положень закону. Однак наголосила, що Єврокомісія, як і раніше, «дуже віддана основним принципам [закону]».
Так званий цифровий омнібусний пакет, який є спробою Єврокомісії зменшити бюрократію й полегшити життя компаній шляхом послаблення адміністративного навантаження, передбачатиме також зміни в політиці ЄС щодо даних та правил кібербезпеки.
Тиск з метою змінити закон про штучний інтелект
Згідно з проєктами, які перебувають на стадії обговорення, пакет спрощень може передбачати введення однорічного пільгового періоду. Це означатиме, що національні органи влади зможуть накладати штрафи за зловживання лише з серпня 2027 року.
На початку цього року генеральні директори понад 40 європейських компаній, зокрема ASML, Philips, Siemens і Mistral AI, попросили надати «дворічну відстрочку» для застосування закону про штучний інтелект, перш ніж ключові зобов’язання набудуть чинності.
Комісія неодноразово заявляла, що не піддасться жодному зовнішньому тиску щодо можливої затримки з прийняттям певних положень.
Майкл О’Флаерті, комісар з прав людини Ради Європи – провідної європейської організації з прав людини – в інтерв’ю Euronews на Web Summit попередив про наслідки планів спрощення. «Будьмо дуже обережними, щоб не втратити основні захисні елементи [законів]», – наголосив він.
«Якщо є можливість ефективніше поєднати кілька регуляторних заходів, це добре, але не слід виливати дитину разом з водою. Не дозволяймо дуже сильному технологічному лобі полегшити життя технологічного сектору і, як наслідок, зробити його більш ризикованим», – зазначив він.
Штучний інтелект стає ключовим елементом сучасної війни, і саме Україна сьогодні демонструє, як технології можуть визначати успіх на полі бою.
Про це начальник штабу оборони Збройних сил Нідерландів Онно Айхельсхайм сказав в ексклюзивному інтерв’ю кореспонденту Укрінформу в Гаазі
“Думаю, що саме тому я завжди сповнений енергії, коли перебуваю в Україні, бо бачу, як там вони використовують штучний інтелект у своїх системах командування та управління, у плануванні та проведенні операцій, зокрема з дронами. Це те, що нам також потрібно впроваджувати. Я використовую ці знання разом з компаніями в Нідерландах та з нашими власними силами, застосовуючи штучний інтелект саме на етапах аналізу та планування. Це те, чого ми навчаємося в Україні, і те, що нам потрібно далі робити”, – сказав він.
За його словами, штучний інтелект відіграватиме дедалі більшу роль у сучасних конфліктах, забезпечуючи швидкість прийняття рішень.
“Штучний інтелект поступово відіграватиме дедалі більшу роль, забезпечуючи дуже швидкі цикли передавання даних, що допоможе прискорити планування та забезпечить достатньо швидкий аналіз усіх даних із зображень та сенсорів для досягнення потрібного ефекту на полі бою в режимі реального часу. Ми багато чого вчимося в України, що логічно, адже вони активно воюють, тоді як ми у безпеці та можемо вчитися на їхньому досвіді”, – сказав він.
Закарпатська область готується прийняти провідних експертів у сфері штучного інтелекту. 20 вересня в Ужгороді пройде конференція “Future Code: AI”, яка збере фахівців з усієї України, щоб обговорити ключові тенденції розвитку ШІ, його вплив на бізнес, освіту та державний сектор. Організатори наголошують, що участь у конференції безкоштовна, але обов’язкова попередня реєстрація. Для тих, хто не зможе відвідати захід особисто, буде доступна онлайн-трансляція. Деталі за посиланням. https://futurecode.itct.com.ua/
OpenAI офіційно випустила свою нову флагманську мовну модель GPT-5, яка вже доступна для користувачів ChatGPT і розробників через API.
Про це повідомляє РБК-Україна з посиланням на американський веб-сайт про комп’ютерну техніку The Verge.
За словами глави компанії Сема Альтмана, GPT-5 стала справжнім проривом порівняно з попередніми поколіннями. Він порівняв її з “тим, до чого неможливо повернутися назад”, як до першого iPhone з дисплеєм Retina.
“GPT-3 нагадувала розмову зі школярем – іноді отримуєш правильну відповідь, іноді щось дивне. GPT-4 – уже як студент вишу. А GPT-5 – це вперше, коли модель відчувається як експерт рівня PhD”, – зазначив Альтман на прес-брифінгу.
Розумніше, швидше, точніше
В OpenAI заявляють, що GPT-5 має вищу точність, швидше відповідає і рідше помиляється. Незважаючи на те, що щотижнева аудиторія ChatGPT наближається до 700 мільйонів користувачів, найбільш передовою моделлю на ринку OpenAI не володіла з моменту релізу GPT-4. У компанії впевнені, що GPT-5 поверне лідерство, особливо в ключових сферах.
“Це найкраща модель у світі для написання коду. Найкраща – для написання текстів. Найкраща – у галузі медицини та в безлічі інших напрямків”, – стверджує Сем Альтман.
Що нового в GPT-5
Однією з перших змін стала відмова від ручного вибору моделей у ChatGPT. Тепер GPT-5 працює як єдина система, в якій вбудований інтелектуальний маршрутизатор сам перемикається на складнішу версію моделі за необхідності – наприклад, якщо користувач попросить “подумати ґрунтовно”.
“Колишній інтерфейс вибору моделей був справжньою головоломкою”, – визнав Альтман.
Доступ і можливості
GPT-5 вже доступна всім користувачам ChatGPT. Однак для безкоштовних акаунтів передбачено обмеження на кількість запитів, після чого модель буде автоматично перемикатися на легшу версію – GPT-5 mini. Для розробників OpenAI представить три версії:
GPT-5
GPT-5 mini
GPT-5 nano – з різною продуктивністю і ціною.
Також у ChatGPT з’являться нові “особистості” моделей – Cynic (Цинік), Robot (Робот), Listener (Слухач) і Nerd (Ботанік), а для окремих чатів тепер можна буде вибирати індивідуальний колір інтерфейсу.
Новий етап у розробці ПЗ
В OpenAI вважають, що GPT-5 відкриє еру так званого “програмного забезпечення за запитом”. У тестах компанії нова модель перевершила всіх конкурентів на ключових бенчмарках для програмістів – SWE-Bench, SWE-Lancer і Aider Polyglot.
На прес-брифінгу глава відділу постнавчання OpenAI Янн Дюбуай показав, як GPT-5 буквально за лічені секунди створила сайт для вивчення французької мови з інтерактивною грою. Модель самостійно написала сотні рядків коду, і все коректно запрацювало під час демонстрації в Zoom.
З 2 серпня в Європейському Союзі почали діяти обовʼязкові вимоги до систем загального штучного інтелекту (GPAI). Компанії тепер зобовʼязані публікувати інформацію про навчальні дані, дотримуватись авторського права та гарантувати безпечну розробку продуктів.
Про це інформує Європейська комісія.
Європейські правила для систем загального призначення в галузі штучного інтелекту (GPAI) набули чинності.
Це підвищить прозорість, безпеку та підзвітність систем ШІ на ринку. Ці правила забезпечать більш чітку інформацію про те, як навчаються моделі ШІ, більш ефективне дотримання авторських прав та більш відповідальну розробку ШІ.
– йдеться у повідомленні.
Під GPAI потрапляють моделі, здатні генерувати мову й навчені на обсягах обчислень. Для найпотужніших моделей із потенційним системним ризиком передбачені додаткові вимоги — зокрема, обов’язок інформувати Єврокомісію та гарантувати безпеку моделей.
Це перший етап впровадження європейського AI Act — закону, ухваленого в червні 2024 року. Він розділяє ШІ-системи за рівнем ризику та встановлює суворіші вимоги до високоризикових продуктів, особливо в галузях охорони здоров’я, правосуддя та критичної інфраструктури.
Регламент також запроваджує обов’язкову реєстрацію моделей з високим впливом на громадськість — зокрема тих, що можуть створювати дезінформацію або порушувати права людини.
Повністю регламент набуде чинності до 2026 року, але перші зобов’язання з прозорості вже стали обов’язковими для компаній, які розробляють чи впроваджують ШІ в ЄС.
“Grok тепер у Telegram”, – йдеться в повідомленні, однак подробиць щодо цього чат-бот не надав.
На запитання коментатора, чому Grok не додали до сервісу Whatsapp, бот пояснив, що, ймовірно, справа у більш суворій політиці останнього стосовно ботів, яка вимагає верифікації та дотримання вимог, на відміну від telegram.
Водночас Ілон Маск офіційно оголосив про впровадження штучного інтелекту Grok у месенджер Telegram. Новий чат-бот від компанії xAI став доступний користувачам преміум-версії під унікальним ім’ям @GrokAI.
Наразі функціональність обмежена: штучний інтелект здатен відповідати на запитання користувачів, проте пошукові можливості та глибокі аналітичні міркування наразі відсутні.
OpenAI виявила, що китайський уряд використовує штучний інтелект для стеження за антикитайським контентом на західних соціальних платформах у режимі реального часу.
Про це повідомляє The New York Times.
Шпигунська система на основі ШІ, що отримала назву Peer Review, була виявлена після того, як фахівці OpenAI помітили застосування їхніх інструментів для налагодження коду, пов’язаного з цією програмою.
«Ми вперше зіткнулися з настільки потужною системою спостереження, заснованою на ШІ», – заявив головний дослідник OpenAI Бен Німмо. За його словами, іноді зловмисники самі випадково розкривають свої схеми, взаємодіючи з моделями OpenAI.
За даними OpenAI, в основі китайської системи стеження лежить модель Llama, розроблена Meta. Оскільки Llama поширюється у форматі open-source, її можливості були використані для створення цього інструменту.
Крім того, OpenAI виявила ще одну китайську кампанію, що отримала назву Sponsored Discontent. Ця група використовувала ШІ для генерації англомовних матеріалів, спрямованих проти китайських опозиціонерів, а також перекладала статті з критикою США іспанською мовою і поширювала їх у Латинській Америці.
На території Італії заборонили використання китайського застосунку на основі штучного інтелекту DeepSeek.
Про це інформує місцевого регулятора Garante.
Зазначається, що обмеження запровадили для захисту даних італійських користувачів. Регулятор спитав, які дані збираються, для чого і чи зберігаються вони в Китаї. Згодом китайська компанія надала інформацію, проте „зміст повідомлення визнано абсолютно недостатнім”, додає Garante.
У DeepSeek заявили, що вони не працюють в Італії, тобто не мають офісу на території країни, тому європейське законодавство щодо збору даних на них не поширюється. Починаючи з 29 січня DeepSeek зник із цифрових магазинів Італії.
Близько 200 тисяч робочих місць у міжнародному банківському секторі можуть зникнути в найближчі три-п’ять років через те, що частину завдань, які зараз виконують люди, перейме на себе штучний інтелект (ШІ), ідеться в дослідженні Bloomberg Intelligence (BI).
Опитані керівники інформаційних та технологічних компаній повідомили, що у зв’язку з поширенням ШІ кількість робочої сили скоротиться в середньому на 3%.
За словами Томаша Ноцеля, старшого аналітика Bloomberg Intelligence (BI), найбільшому ризику піддадуться бек-офіс, адміністративний та допоміжний персонал у сфері фінансових послуг, які не мають прямого контакту з клієнтами.
«Під загрозою всі рутинні, повторювані завдання», – зазначив експерт.
Результати дослідження свідчать, що зростання застосування штучного інтелекту в галузі веде до збільшення доходів. У 2027 році прибутки банків без урахування оподаткування можуть зрости на 12–17% – до 180 мільярдів доларів, оскільки ШІ покращить продуктивність.
На російських військових підприємства тепер виробляють „сотні на тиждень” ударних дронів типу Shahed.
Росіяни намагаються застосовувати штучний інтелект у дронах-камікадзе Shahed. Про це у неділю, 24 листопада, заявила газета The Guardian із посиланням на джерела серед українських військових.
За даними видання, окупанти впроваджують ШІ для створення „роїв дронів”.
„Планується, що завдяки цій технології безпілотники будуть комунікувати та координувати атаки таким чином, аби долати протиповітряну оборону. Водночас незрозуміло, наскільки ефективною може бути ця технологія”, – зауважило медіа.
Видання додає, що українські фахівці також намагаються розробити дешеві FPV-дрони, вартістю менш як 1000 доларів, які здатні збивати російські дрони. Проте це завдання ускладнюється тим, що турбулентний потік повітря, який створює безпілотник, суттєво впливає на пілотування меншого за розміром безпілотника FPV.