Първо Италия, а сега и Германия е на път да наложи забрана над ChatGPT. Популярният чатбот с изкуствен интелект е заподозрян в кражба на данни.
Най-новата версия на инструмента за генеративен изкуствен интелект на американската изследователска лаборатория Open AI стартира по-рано този месец след огромния успех на софтуера ChatGPT през 2022 година.
Версията GPT - 4 е способна да изпълнява композиционни задачи и да преминава стандартизирани тестове на човешко ниво. Използва алгоритми и предсказуем текст, за да създаде ново съдържание въз основа на подкани. Въпреки това създателите предупреждават, че новата разработка не е напълно надеждна и е способна да „халюцинира“, т.е. да измисля факти или да допуска грешки в разсъжденията си.
Снимка: ЕПА/БГНЕС/Pete Linforth
От стартирането му през ноември 2022 г. милиони хора са използвали ChatGPT, което го поставя на върха на класацията за най-бързо развиващи се потребителски приложения. Заедно с това обаче нарастват и опасенията относно потенциалните рискове, които изкуственият интелект крие. Сред тях е и заплахата от унищожението на много работни места, както и разпространението на дезинформация.
Дори значими фигури в областта на технологиите като Илон Мъск призовават този тип системи да бъдат спрени, защото надпреварата по разработването им излиза от контрол.
Първата западна страна, която блокира ChatGPT беше Италия. Позовавайки се на предполагаеми нарушения на поверителността, италианският орган за защита на данните издаде незабавна забрана за достъп до чатбота. В изявление на службата се посочва, че на 20 март е извършено нарушение спрямо разговорите на потребителите и информацията за плащане на тези, които се възползват от платената услуга. Критика е отправена и към липсата на правно основание, което да оправдава масовото събиране и съхранение на лични данни с цел „обучение“ на алгоритмите, които управляват платформата.
Снимка: ЕПА/БГНЕС/Alessandro Henriques Teixeira
Освен това, въпреки че роботът е предназначен за работа с хора над 13 годишна възраст, разследващият орган посочва, че липсва филтър за проверка на възрастта, с което непълнолетните потребители биват изложени на опасността да получат отговори на въпроси, които са неподходящи за техния етап на развитие.
Очаква се, че Германия може да последва примера на Италия. Според германския комисар за защита на данните има подозрения за злоупотреба с личната информация, предоставена от потребителите на софтуера. По случая Германия е поискала допълнително информация от Италия относно забраната. Същото са направили и Франция, и Ирландия.
„Проследяваме италианския регулатор, за да разберем основата на тяхното действие, и ще координираме действията си с всички органи на ЕС за защита на данните във връзка с този въпрос“, заявява ирландският комисар по защита на данните.
ChatGPT вече е недостъпен в редица страни извън ЕС, сред които са Китай, Иран, Северна Корея и Русия.
Снимка: ЕПА/БГНЕС/Alexandra Koch
След предприетите действия от Италия Европейската организация на потребителите призова страните, които работят по случая, да разследват и всички основни чатботове с изкуствен интелект.
Защо ни е важно?
Информацията, която получаваме вследствие употребата на подобни софтуери, все още трябва да подлежи на критична оценка от наша страна. Инцидентът с ChatGPT е много важен, защото е сигнал към ЕС, който макар и да работи по закон за изкуствения интелект, все още не може да предприема наказателни действия въз основа на него в близките няколко години, а рискът вече се покачва. Тези видове системи се развиват твърде бързо.
От фишинг до дезинформация и създаването на зловреден софтуер, възможностите на чатботовете се разширяват с изключителна скорост. А ако попадне в грешните ръце, този вид система се превръща в изключително опасен инструмент.
Преди няколко седмици се разрази вълна от недоволство и възпиране на платформата „ТикТок“ във връзка с обвинение в събиране, съхранение и анализиране на личните данни на милиони потребители от страна на китайското правителство с цел шпионаж.
Снимка: ЕПА/БГНЕС/Alexandra Koch
В този случай компанията е американска, но казусът е подобен. Потребителите са изложени на постоянен риск, който заплащат с цената на личните си данни, а те служат за създаването на един по-голям алгоритъм, който може да дестабилизира цели държави и световни организации.
Ахахаха, един от преподавателите ми иска да направим курсовата си работа с тази програма, дано скоро да я забранят и тук