AI ChatGPT – новий сервіс стрімко увірвався у світ завдяки досягненням у сфері програмування штучного інтелекту, що експоненціально зростають, а також завдяки структурі нашого мозку, пише Axios.
Як це працює: дослідники встановили, що системи сприйняття людини тонко налаштовані на розпізнавання іншої людини, і ми робимо це настільки добре, що проєктуємо людяність, навіть коли її немає (дві крапки в гуртку стають обличчям). Ми олюднюємо елементи природи й абстрактні форми – і розмови з комп’ютерами теж. Так, ChatGPT – це код, який не знає, що означають слова, але він може складати їх у речення, які нагадують людську мову. Коли ми читаємо це, ми неминуче впадаємо в комфортне відчуття, що спілкуємося з іншою істотою.
також читайте
Технологічні гіганти та невеликі стартапи хочуть впровадити програми штучного інтелекту, як-от AI ChatGPT, в усі аспекти нашої роботи й життя, і в них є потужний союзник на шляху еволюції людського сприйняття – наш мозок. У 1966 році користувачі, які обмінювалися повідомленнями з Eliza, новаторським чат-ботом, створеним Джозефом Вайценбаумом із Массачусетського технологічного інституту, легко уявляли, що вони розмовляють із людиною. Еліза ставила користувачам відкриті запитання, змодельовані за підказками психотерапевта, і вони почали жадібно ділитися з нею своїми почуттями та переживаннями. Вайценбаум, чия сім’я втекла з Німеччини після війни, провів залишок своєї кар’єри, піднімаючи тривогу з приводу небезпек штучного інтелекту в руках могутніх компаній і урядів.
Загальна картина: так званий ефект Елізи – це частина того, що викликає хвилю ажіотажу навколо генеративного AI ChatGPT . Це пов’язано з потужними міфами та образами, які ми створили довкола самого штучного інтелекту, починаючи від його назви та закінчуючи його уявленнями в культурі й грандіозними обіцянками, які дають компанії. “Штучний інтелект” звучить набагато грандіозніше, ніж просто “мовна модель” або “алгоритм машинного навчання”. Компанії навмисно підкреслюють необмежені можливості та применшують потенційну небезпеку.
Інженер Google на ім’я Блейк Лемуан потрапив у заголовки газет минулого року, заявивши, що, на його думку, схожа на ChatGPT програма LaMDA від Google досягла “розумності”. Скептично налаштовані експерти разом із колегами Лемуана з Google стверджували, що це всього лише ще один приклад ефекту Елізи. Але інцидент, найімовірніше, повториться, оскільки мільйони людей почнуть регулярно взаємодіяти з такими програмами, як ChatGPT.
Що далі: у міру поширення технологій у стилі AI ChatGPT ми стикатимемося з дедалі більшою невизначеністю в Інтернеті та в повсякденному житті щодо природи сутностей, які надсилають нам повідомлення. Уже зараз, коли ми зв’язуємося зі службою підтримки або центром обслуговування клієнтів за допомогою повідомлень, стає важко визначити, хто на іншому кінці – людина чи бот ©️
Більше цікавих матеріалів у нашій спільноті facebook.