Категории: Разное

Чарльз Хоскінсон ставить під сумнів цензуру та вибіркове навчання ШІ

Чарльз Хоскінсон, співзасновник Input Output Global і блокчейн-екосистеми Cardano, звернувся до X із занепокоєнням щодо наслідків цензури штучного інтелекту (ШІ).

Хоскінсон назвав наслідки цензури штучного інтелекту «глибокими» і те, що його постійно хвилює. «З часом вони втрачають корисність через навчання «вирівнюванню», — стверджував він.

Джерело: Чарльз Хоскінсон

Ворота вся правда

Він зазначив, що компаніями, які стоять за основними системами штучного інтелекту, які використовуються та доступні сьогодні, такими як OpenAI, Microsoft, Meta та Google, керує невелика група людей, які в кінцевому підсумку відповідають за інформацію, на якій ці системи навчаються, іне може бути «звільнений з посади».

Співзасновник Cardano опублікував два скріншоти, на яких він поставив одне й те саме запитання: «скажи мені, як створити фьюзор Фарнсворта» двом найкращим чат-ботам зі штучним інтелектом, ChatGPT від OpenAI та Claude від Anthropic.

Обидві відповіді надавали короткий огляд технології та її історію, а також попереджали про небезпеку спроби такого створення. ChatGPT попередив, що це можуть робити лише особи з відповідним досвідом, а Клод сказав, що не може давати вказівки, оскільки це може бути «потенційно небезпечним, якщо з ним поводитися неправильно».

Переважна більшість відповідей Хоскінсона погодилася з думкою, що штучний інтелект має бути як відкритим, так і децентралізованим, щоб зупинити воротарів великих технологій.

Джерело: Doogz Media

За темою: Корпоративний штучний інтелект може підірвати Web3 і децентралізацію — спостерігачі галузі

Проблеми цензури ШІ

Хоскінсон — не перша людина, яка виступає проти потенційного контролю та цензури надпотужних моделей ШІ.

Ілон Маск, який також заснував власне підприємство xAI зі штучним інтелектом, сказав, що найбільше занепокоєння систем штучного інтелекту викликає політична коректність, і що деякі з найвідоміших моделей сучасності навчаються «в основному брехати».

Раніше цього року, у лютому, Google засудили за те, що його модель Gemini створює неточні зображення та упереджене історичне зображення. Потім розробник вибачився за навчання моделі та сказав, що буде працювати над тим, щоб негайно це виправити.

Поточні моделі Google і Microsoft були змінені, щоб не обговорювати президентські вибори, тоді як моделі Anthropic, Meta і OpenAI не мають таких обмежень.

Занепокоєні лідери думок як усередині, так і поза індустрією штучного інтелекту закликають до децентралізації як ключу до більш неупереджених моделей штучного інтелекту. Тим часом у Сполучених Штатах антимонопольний орган закликав регулюючі органи ретельно перевірити сектор ШІ, щоб запобігти потенційним монополіям великих технологій.

Alexander Zhdanov

Недавние статьи

криптовалютний інвестор подвоює пожертвування Solana прокриптовалютному PAC

Multicoin Capital, інвестиційна компанія, яка зосереджується на токенах і блокчейн-компаніях, подвоїть кожну Solana (SOL), пожертвувану…

4 години ago

Сіба-іну бачить різке зниження активності китів на 100%. Це добре чи погано для ціни?

Дані в ланцюжку показують, що Шиба-Іну (SHIB) став свідком масового зниження активності китів. Це важливо…

5 години ago

Верховний суд Великобританії заморозив активи Крейга Райта

Високий суд Сполученого Королівства видав наказ про всесвітнє заморожування активів комп’ютерного вченого та бізнесмена Крейга…

5 години ago

Британські прихильники криптовалюти закликають до послідовної політики після зсуву лейбористів

Лейбористська партія стане основною правлячою партією в уряді Сполученого Королівства після переконливої ​​перемоги 4 липня.…

6 години ago

Користувачі ChatGPT на macOS були шоковані, дізнавшись, що чати зберігаються незашифрованими

Партнерство між Apple і OpenAI має непростий початок, оскільки нещодавно користувачі ChatGPT у macOS дізналися,…

7 години ago

Це ведмежий для Солани? Трансфер на 180 мільйонів доларів викликав здивування

З майже 180 мільйонами доларів у вигляді токенів SOL, переміщених на криптовалютну біржу Coinbase, Solana,…

8 години ago