Закарпатська область готується прийняти провідних експертів у сфері штучного інтелекту. 20 вересня в Ужгороді пройде конференція „Future Code: AI”, яка збере фахівців з усієї України, щоб обговорити ключові тенденції розвитку ШІ, його вплив на бізнес, освіту та державний сектор. Організатори наголошують, що участь у конференції безкоштовна, але обов’язкова попередня реєстрація. Для тих, хто не зможе відвідати захід особисто, буде доступна онлайн-трансляція. Деталі за посиланням. https://futurecode.itct.com.ua/
OpenAI офіційно випустила свою нову флагманську мовну модель GPT-5, яка вже доступна для користувачів ChatGPT і розробників через API.
Про це повідомляє РБК-Україна з посиланням на американський веб-сайт про комп’ютерну техніку The Verge.
За словами глави компанії Сема Альтмана, GPT-5 стала справжнім проривом порівняно з попередніми поколіннями. Він порівняв її з „тим, до чого неможливо повернутися назад”, як до першого iPhone з дисплеєм Retina.
„GPT-3 нагадувала розмову зі школярем – іноді отримуєш правильну відповідь, іноді щось дивне. GPT-4 – уже як студент вишу. А GPT-5 – це вперше, коли модель відчувається як експерт рівня PhD”, – зазначив Альтман на прес-брифінгу.
Розумніше, швидше, точніше
В OpenAI заявляють, що GPT-5 має вищу точність, швидше відповідає і рідше помиляється. Незважаючи на те, що щотижнева аудиторія ChatGPT наближається до 700 мільйонів користувачів, найбільш передовою моделлю на ринку OpenAI не володіла з моменту релізу GPT-4. У компанії впевнені, що GPT-5 поверне лідерство, особливо в ключових сферах.
„Це найкраща модель у світі для написання коду. Найкраща – для написання текстів. Найкраща – у галузі медицини та в безлічі інших напрямків”, – стверджує Сем Альтман.
Що нового в GPT-5
Однією з перших змін стала відмова від ручного вибору моделей у ChatGPT. Тепер GPT-5 працює як єдина система, в якій вбудований інтелектуальний маршрутизатор сам перемикається на складнішу версію моделі за необхідності – наприклад, якщо користувач попросить „подумати ґрунтовно”.
„Колишній інтерфейс вибору моделей був справжньою головоломкою”, – визнав Альтман.
Доступ і можливості
GPT-5 вже доступна всім користувачам ChatGPT. Однак для безкоштовних акаунтів передбачено обмеження на кількість запитів, після чого модель буде автоматично перемикатися на легшу версію – GPT-5 mini. Для розробників OpenAI представить три версії:
GPT-5
GPT-5 mini
GPT-5 nano – з різною продуктивністю і ціною.
Також у ChatGPT з’являться нові „особистості” моделей – Cynic (Цинік), Robot (Робот), Listener (Слухач) і Nerd (Ботанік), а для окремих чатів тепер можна буде вибирати індивідуальний колір інтерфейсу.
Новий етап у розробці ПЗ
В OpenAI вважають, що GPT-5 відкриє еру так званого „програмного забезпечення за запитом”. У тестах компанії нова модель перевершила всіх конкурентів на ключових бенчмарках для програмістів – SWE-Bench, SWE-Lancer і Aider Polyglot.
На прес-брифінгу глава відділу постнавчання OpenAI Янн Дюбуай показав, як GPT-5 буквально за лічені секунди створила сайт для вивчення французької мови з інтерактивною грою. Модель самостійно написала сотні рядків коду, і все коректно запрацювало під час демонстрації в Zoom.
З 2 серпня в Європейському Союзі почали діяти обовʼязкові вимоги до систем загального штучного інтелекту (GPAI). Компанії тепер зобовʼязані публікувати інформацію про навчальні дані, дотримуватись авторського права та гарантувати безпечну розробку продуктів.
Про це інформує Європейська комісія.
Європейські правила для систем загального призначення в галузі штучного інтелекту (GPAI) набули чинності.
Це підвищить прозорість, безпеку та підзвітність систем ШІ на ринку. Ці правила забезпечать більш чітку інформацію про те, як навчаються моделі ШІ, більш ефективне дотримання авторських прав та більш відповідальну розробку ШІ.
– йдеться у повідомленні.
Під GPAI потрапляють моделі, здатні генерувати мову й навчені на обсягах обчислень. Для найпотужніших моделей із потенційним системним ризиком передбачені додаткові вимоги — зокрема, обов’язок інформувати Єврокомісію та гарантувати безпеку моделей.
Це перший етап впровадження європейського AI Act — закону, ухваленого в червні 2024 року. Він розділяє ШІ-системи за рівнем ризику та встановлює суворіші вимоги до високоризикових продуктів, особливо в галузях охорони здоров’я, правосуддя та критичної інфраструктури.
Регламент також запроваджує обов’язкову реєстрацію моделей з високим впливом на громадськість — зокрема тих, що можуть створювати дезінформацію або порушувати права людини.
Повністю регламент набуде чинності до 2026 року, але перші зобов’язання з прозорості вже стали обов’язковими для компаній, які розробляють чи впроваджують ШІ в ЄС.
“Grok тепер у Telegram”, – йдеться в повідомленні, однак подробиць щодо цього чат-бот не надав.
На запитання коментатора, чому Grok не додали до сервісу Whatsapp, бот пояснив, що, ймовірно, справа у більш суворій політиці останнього стосовно ботів, яка вимагає верифікації та дотримання вимог, на відміну від telegram.
Водночас Ілон Маск офіційно оголосив про впровадження штучного інтелекту Grok у месенджер Telegram. Новий чат-бот від компанії xAI став доступний користувачам преміум-версії під унікальним ім’ям @GrokAI.
Наразі функціональність обмежена: штучний інтелект здатен відповідати на запитання користувачів, проте пошукові можливості та глибокі аналітичні міркування наразі відсутні.
OpenAI виявила, що китайський уряд використовує штучний інтелект для стеження за антикитайським контентом на західних соціальних платформах у режимі реального часу.
Про це повідомляє The New York Times.
Шпигунська система на основі ШІ, що отримала назву Peer Review, була виявлена після того, як фахівці OpenAI помітили застосування їхніх інструментів для налагодження коду, пов’язаного з цією програмою.
«Ми вперше зіткнулися з настільки потужною системою спостереження, заснованою на ШІ», – заявив головний дослідник OpenAI Бен Німмо. За його словами, іноді зловмисники самі випадково розкривають свої схеми, взаємодіючи з моделями OpenAI.
За даними OpenAI, в основі китайської системи стеження лежить модель Llama, розроблена Meta. Оскільки Llama поширюється у форматі open-source, її можливості були використані для створення цього інструменту.
Крім того, OpenAI виявила ще одну китайську кампанію, що отримала назву Sponsored Discontent. Ця група використовувала ШІ для генерації англомовних матеріалів, спрямованих проти китайських опозиціонерів, а також перекладала статті з критикою США іспанською мовою і поширювала їх у Латинській Америці.
На території Італії заборонили використання китайського застосунку на основі штучного інтелекту DeepSeek.
Про це інформує місцевого регулятора Garante.
Зазначається, що обмеження запровадили для захисту даних італійських користувачів. Регулятор спитав, які дані збираються, для чого і чи зберігаються вони в Китаї. Згодом китайська компанія надала інформацію, проте „зміст повідомлення визнано абсолютно недостатнім”, додає Garante.
У DeepSeek заявили, що вони не працюють в Італії, тобто не мають офісу на території країни, тому європейське законодавство щодо збору даних на них не поширюється. Починаючи з 29 січня DeepSeek зник із цифрових магазинів Італії.
Близько 200 тисяч робочих місць у міжнародному банківському секторі можуть зникнути в найближчі три-п’ять років через те, що частину завдань, які зараз виконують люди, перейме на себе штучний інтелект (ШІ), ідеться в дослідженні Bloomberg Intelligence (BI).
Опитані керівники інформаційних та технологічних компаній повідомили, що у зв’язку з поширенням ШІ кількість робочої сили скоротиться в середньому на 3%.
За словами Томаша Ноцеля, старшого аналітика Bloomberg Intelligence (BI), найбільшому ризику піддадуться бек-офіс, адміністративний та допоміжний персонал у сфері фінансових послуг, які не мають прямого контакту з клієнтами.
«Під загрозою всі рутинні, повторювані завдання», – зазначив експерт.
Результати дослідження свідчать, що зростання застосування штучного інтелекту в галузі веде до збільшення доходів. У 2027 році прибутки банків без урахування оподаткування можуть зрости на 12–17% – до 180 мільярдів доларів, оскільки ШІ покращить продуктивність.
На російських військових підприємства тепер виробляють „сотні на тиждень” ударних дронів типу Shahed.
Росіяни намагаються застосовувати штучний інтелект у дронах-камікадзе Shahed. Про це у неділю, 24 листопада, заявила газета The Guardian із посиланням на джерела серед українських військових.
За даними видання, окупанти впроваджують ШІ для створення „роїв дронів”.
„Планується, що завдяки цій технології безпілотники будуть комунікувати та координувати атаки таким чином, аби долати протиповітряну оборону. Водночас незрозуміло, наскільки ефективною може бути ця технологія”, – зауважило медіа.
Видання додає, що українські фахівці також намагаються розробити дешеві FPV-дрони, вартістю менш як 1000 доларів, які здатні збивати російські дрони. Проте це завдання ускладнюється тим, що турбулентний потік повітря, який створює безпілотник, суттєво впливає на пілотування меншого за розміром безпілотника FPV.
Зазначають, що завдяки таким технологіям, безпілотники можуть самостійно знаходити та уражати цілі навіть в умовах потужного електронного глушiння, яке обмежує ефективність дронів з ручним управлінням.
«На ринку вже існують кілька десятків рішень від українських виробників, і вони закуповуються та поставляються в армію та інші оборонні підрозділи», — заявила заступниця міністра оборони України з питань цифрового розвитку Катерина Черногоренко, підкресливши, що ці системи застосовуються в спеціальних операціях.
Дрони з штучним інтелектом допомагають долати електронну оборону противника, яка порушує зв’язок між пілотом і дроном. У свою чергу, Україна також використовує дрони для перехоплення російських розвідувальних апаратів, які підтримують артилерійські обстріли. За словами Черногоренко, ці дрони-інтерцептори також потребують оснащення ШI-технологіями для підвищення ефективності.
У виданнi також згадують, що українська компанія NORDA Dynamics вже поставила на ринок понад 15 тисяч одиниць програмного забезпечення для керування дронами, що дозволяє безпілотникам наводитись на цілі автономно після вибору об’єкта оператором. Як заявив операційний директор компанії Дмитро Вовчук, їхня система дозволяє вражати захищені цілі, на які раніше було неефективно спрямовувати удари через високий рівень електронного захисту.
Apple запрошує розробників та дослідників безпеки дослідити свою нову систему приватних хмарних обчислень (PCC), яка розроблена для обробки інтенсивних запитів штучного інтелекту (брендованих як Apple Intelligence) з більшою обчислювальною потужністю.
Про це повідомляє The Verge.
Компанія також розширила свою програму винагород за помилки: тепер дослідники можуть отримати до 1 мільйона доларів за виявлені вразливості в PCC. Винагороди варіюються від 50 000 до 1 мільйона доларів залежно від впливу знайденої проблеми.
Завдяки PCC складні запити будуть оброблятися на захищених серверах, створених за допомогою чипів Apple Silicon та нової операційної системи, водночас забезпечуючи високі стандарти конфіденційності.
Для дослідників Apple відкриває доступ до низки інструментів, серед яких:
Посібник із безпеки з технічними деталями PCC;
Віртуальне дослідницьке середовище для аналізу безпеки системи;
Вихідний код на GitHub, що демонструє ключові компоненти безпеки.
Запуск перших функцій Apple Intelligence планується з iOS 18.1, яка очікується вже 28 жовтня, а великі оновлення, включаючи Genmoji та інтеграцію ChatGPT, вийшли в першій бета-версії iOS 18.2 для розробників.
Замість планованого впровадження Intelligence під час початкового запуску iOS 18 та iPadOS 18 у вересні, компанія вирішила відтермінувати впровадження до жовтня, щоб мати більше часу для усунення можливих помилок. У серпні, компанія оголосила, що випустить Intelligence на iOS 18.1, iPadOS 18.1 та macOS Sequoia 15.1 у жовтні, але точна дата запуску не була відома.