OpenAI Генеральний Директор Звітує перед Конгресом Разом з Прихильником Паузи ШІ та Виконавчим Директором IBM

Разное

Генеральний директор OpenAI Сем Альтман вперше виступить перед Конгресом 16 травня, щоб обговорити регулювання штучного інтелекту (ШІ) у Сполучених Штатах під час слухань щодо нагляду. Також дадуть свідчення віце-президент IBM з довіри та конфіденційності Крістіна Монтгомері та почесний професор Нью-Йоркського університету Гарі Маркус.

Деталі щодо порядку денного слухань залишаються рідкісними. Її назва «Нагляд за штучним інтелектом: правила для штучного інтелекту» означає, що дискусія буде зосереджена на безпеці та конфіденційності, як і список запланованих учасників.

Слухання відзначать перші офіційні свідчення генерального директора OpenAI Сема Альтмана перед Конгресом, хоча нещодавно він був присутній на круглому столі з віце-президентом Камалою Гарріс у Білому домі разом із генеральними директорами Alphabet, Microsoft і Anthropic.

До Альтмана приєднаються віце-президент IBM із питань довіри та конфіденційності, Крістіна Монтгомері, член Національного консультативного комітету зі штучного інтелекту США, і почесний професор Нью-Йоркського університету Гарі Маркус, автор бестселерів New York Times.

Нещодавно Маркус викликав хвилю у спільноті штучного інтелекту своєю цілковитою підтримкою «паузи» у розробці штучного інтелекту на шість місяців.

За темою: Ілон Маск і технічні керівники закликають призупинити розробку ШІ

Ідея призупинення штучного інтелекту була визначена у відкритому листі, опублікованому на веб-сайті Інституту майбутнього життя 22 березня. Станом на публікацію цієї статті під нею підписалося понад 27 500 осіб.

Оголошена мета листа — «закликати всі лабораторії штучного інтелекту негайно призупинити принаймні на 6 місяців навчання систем штучного інтелекту, потужніших за GPT-4».

Сем Альтман і Крістіна Монтгомері серед тих, хто виступає проти паузи.

Що стосується Монтгомері, її почуття були пояснені в докладному дописі в блозі компанії IBM під назвою «Не призупиняйте розробку штучного інтелекту, натомість віддайте перевагу етиці», де вона навела аргументи на користь більш точного підходу до регулювання штучного інтелекту:

«Загальна пауза в навчанні штучного інтелекту разом із існуючими тенденціями, які, здається, позбавляють пріоритетності інвестицій у галузеві зусилля з етики штучного інтелекту, призведуть лише до додаткової шкоди та невдач».

Згідно з іншою публікацією в блозі IBM, частково написаною Монтгомері, компанія вважає, що штучний інтелект повинен регулюватися на основі ризику — варто зазначити, що, наскільки нам відомо, IBM наразі не має публічних генеративних моделей ШІ.

OpenAI, з іншого боку, відповідає за ChatGPT, мабуть, найпопулярнішу загальнодоступну технологію ШІ.

Згідно з інтерв’ю з Лексом Фрідманом на заході Массачусетського технологічного інституту, Альтман, генеральний директор компанії, підтримує безпечну та етичну розробку систем ШІ, але вірить у «залучення всіх до обговорення» та «виведення цих систем у світ».

Таким чином, Маркус залишається єдиним випадаючим, тим, хто голосно підтримує паузу з самого початку. Хоча Маркус, за загальним визнанням, «не брав участі в написанні» листа про паузу, він написав допис у блозі під назвою «Чи настав час натиснути кнопку паузи на ШІ?»майже за місяць до публікації відкритого листа.

Хоча майбутні слухання в Сенаті, ймовірно, функціонуватимуть лише як форум, на якому члени Конгресу зможуть ставити запитання, дискусія може мати руйнівні наслідки — залежно від того, яким експертам ви вірите.

Якщо Конгрес вирішить, що регулювання штучного інтелекту заслуговує суворої руки, такі експерти, як Монтгомері, побоюються, що такі зусилля можуть негативно вплинути на інновації, не обов’язково вирішуючи питання безпеки.

Ця шкода може просочитися в операційні сектори, де технологія GPT лежить в основі безлічі ботів і сервісів. Наприклад, у світі фінансових технологій криптовалютні біржі адаптують технологію чат-ботів для обслуговування своїх клієнтів, проведення торгів та аналізу ринку.

Однак такі експерти, як Маркус та Ілон Маск, стурбовані тим, що неспроможність прийняти політику здорового глузду щодо нагляду за ШІ може призвести до екзистенціальної кризи для людства.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар