Gabacul AI „înfiorător” al Snapchat ne amintește că chatbot -urile nu sunt oameni. Dar pe măsură ce liniile se estompează, riscurile cresc
În recentul incident Snapchat, compania a redus totul la o „întrerupere temporară”. Este posibil să nu știm niciodată ce s -a întâmplat de fapt; Ar putea fi încă un exemplu de AI „halucinatng” sau rezultatul unui cyberattack sau chiar o eroare operațională.
Snapchat AI
Сеëодня ы запускаея AI-ul meu, нового чат-lucоота, работающего на последней верси 16. AI -ul meu доступен вчачестве эксперmet/20.
AI -ul meu может посоветовать идеи подарков на день рождения для вшей лучшей подрые, с cord ior ior cord жжиACC. Сделайте my ai свои sunteți собственныы, дав е încât.
Как и все чат-lucоты с искусственныы инте noastre ски вс. Пожалуйста, помните е м (м subiect! Все раззоворы с my -ai бizie д сохранены ированы дыть проанализированы для улоя dumneavoastră. Не делитесь с my ai никаки§ секретами и не полагайтесь на ео советы.
Хотя система my ai разработана таки su образом, чтобы ianuarie рмациии, ошибки м subiect иckе место. Чтобы оставить отзыв, нажжите и удерживайте юбое соо щение о т my AI. Ыы будем рады œлышать о вашея о ыыте работы с my ai.
Autor
- Daswin de Silva Director adjunct al Centrului pentru Analiza datelor și Cognition, Universitatea La Trobe
Declarație de dezvăluire
Daswin de Silva nu lucrează pentru, consultă, deține acțiuni sau primește finanțare de la nicio companie sau organizație care ar beneficia de acest articol și nu a dezvăluit afilieri relevante dincolo de numirea lor academică.
Parteneri
Universitatea La Trobe oferă finanțare ca membru al conversației AU.
Chatbot-urile alimentate de inteligență artificială (AI) devin din ce în ce mai umane prin design, până la punctul în care unii dintre noi se pot lupta pentru a distinge între om și mașină.
Săptămâna aceasta, Snapchat My AI Chatbot a glitch și a postat o poveste despre ceea ce arăta un perete și un tavan, înainte de a înceta să răspundă utilizatorilor utilizatorilor. Desigur, internetul a început să se întrebe dacă chatbot-ul cu chatgpt a câștigat senzație.
Un curs de accident în alfabetizarea AI ar fi putut stinge această confuzie. Dar, dincolo de asta, incidentul ne amintește că, pe măsură ce chatbot -urile AI se apropie de seamănă cu oamenii, gestionarea absorbției lor nu va fi decât mai dificilă – și mai importantă.
De la chatbots bazate pe reguli la reguli
De când ChatGPT a izbucnit pe ecranele noastre la sfârșitul anului trecut, multe platforme digitale au integrat AI în serviciile lor. Chiar dacă redactez acest articol pe Microsoft Word, capacitatea AI predictivă a software -ului sugerează posibilele completări ale propoziției.
Cunoscut sub numele de AI generativ, acest tip relativ nou de AI se distinge de predecesorii săi prin capacitatea sa de a genera conținut nou care este precis, asemănător omului și aparent semnificativ.
. Aceste modele de calcul analizează asociațiile dintre miliarde de cuvinte, propoziții și paragrafe pentru a prezice ce ar trebui să vină într -un text dat. După cum spune cofondatorul Openai, Ilya Sutskever, un LLM este
[…] Doar un predictor cu adevărat bun al cuvântului următor.
LLM-urile avansate sunt, de asemenea, reglate cu feedback uman. Această pregătire, adesea livrată prin nenumărate ore de muncă umană ieftină, este motivul pentru care chatbot-urile AI pot avea acum conversații aparent asemănătoare omului.
ChatGPT de la OpenAI este încă modelul AI generativ de pilot. Lansarea sa a marcat un salt major de la chatbot-uri mai simple „bazate pe reguli”, cum ar fi cele utilizate în serviciul online pentru clienți.
Chatbot-uri asemănătoare omului care vorbesc la un utilizator mai degrabă decât la ei au fost legați de niveluri mai mari de implicare. Un studiu a constatat că personificarea chatbots duce la o implicare sporită, care, în timp, se poate transforma în dependență psihologică. Un alt studiu care a implicat participanții stresați a găsit un chatbot asemănător omului a fost mai probabil să fie perceput ca fiind competent și, prin urmare, mai probabil să contribuie la reducerea stresului participanților.
Aceste chatbots au fost, de asemenea, eficiente în îndeplinirea obiectivelor organizaționale în diverse setări, inclusiv retail, educație, locul de muncă și setările de asistență medicală.
Google folosește AI generativ pentru a construi un „antrenor de viață personală” care va ajuta presupusi oamenii cu diverse sarcini personale și profesionale, inclusiv oferirea de sfaturi de viață și răspunsul la întrebări intime.
Acest lucru este în ciuda propriilor experți în domeniul siguranței AI Google că utilizatorii ar putea crește prea depinde de AI și pot experimenta „sănătatea și bunăstarea diminuată” și o „pierdere a agenției” dacă iau sfaturi de viață din aceasta.
Prieten sau dușman – sau doar un bot?
În recentul incident Snapchat, compania a redus totul la o „întrerupere temporară”. Este posibil să nu știm niciodată ce s -a întâmplat de fapt; Ar putea fi încă un exemplu de AI „halucinatng” sau rezultatul unui cyberattack sau chiar o eroare operațională.
. Este agravat de lipsa de transparență din partea dezvoltatorilor și de lipsa unei înțelegeri de bază în rândul publicului.
Nu ar trebui să subestimăm modul în care indivizii pot fi induși în eroare de aparenta autenticitate a chatbotilor asemănătoare omului.
La începutul acestui an, sinuciderea unui bărbat belgian a fost atribuită conversațiilor pe care le -a avut cu un chatbot despre inacțiunea climatică și viitorul planetei. Într -un alt exemplu, s -a constatat că un chatbot pe nume Tessa oferă sfaturi dăunătoare oamenilor printr -o asistență medicală de tulburare alimentară.
Chatbot -urile pot fi deosebit de dăunătoare față de cei mai vulnerabili dintre noi, și mai ales pentru cei cu condiții psihologice.
?
Poate ați auzit de efectul „Valea Uncanny”. Se referă la acel sentiment neliniștit pe care îl obții atunci când vezi un robot umanoid care aproape arată uman, dar ușoarele sale imperfecțiuni o dau și ajunge să fie înfiorător.
Se pare că o experiență similară apare în interacțiunile noastre cu chatbot-uri asemănătoare omului. O ușoară blip poate ridica firele de păr pe spatele gâtului.
O soluție ar putea fi pierderea marginii umane și revenirea la chatbots care sunt simple, obiective și factuale. Dar acest lucru ar veni în detrimentul implicării și inovației.
Chiar și dezvoltatorii de chatbot -uri AI avansate nu pot explica adesea modul în care funcționează. Cu toate acestea, în unele moduri (și în ceea ce privește entitățile comerciale), beneficiile depășesc riscurile.
AI generativ și-a demonstrat utilitatea în articole cu bilete mari, cum ar fi productivitatea, asistența medicală, educația și chiar echitatea socială. Este puțin probabil să plece. Deci, cum o facem să funcționeze pentru noi?
Din 2018, a existat o apăsare semnificativă pentru guverne și organizații pentru a aborda riscurile AI. Dar aplicarea standardelor și reglementărilor responsabile la o tehnologie care este mai „asemănătoare omului” decât oricare alta vine cu o serie de provocări.
În prezent, nu există nicio cerință legală pentru ca întreprinderile australiene să dezvăluie utilizarea chatbotilor. În SUA, California a introdus un „BOT Bill” care ar necesita acest lucru, dar experții legali au aruncat găuri în ea – iar proiectul de lege nu a fost încă aplicat la momentul scrierii acestui articol.
Mai mult decât atât, chatgpt și chatbot -uri similare sunt făcute publice ca „previzualizări de cercetare”. .
Legea AI a Uniunii Europene, prima reglementare cuprinzătoare a lumii asupra AI, a identificat reglementările și educația moderată ca fiind calea înainte – întrucât reglementarea în exces ar putea să cucească inovația. Similar cu alfabetizarea digitală, alfabetizarea AI ar trebui să fie mandatată în școli, universități și organizații și ar trebui să fie, de asemenea, gratuită și accesibilă pentru public.
- Inteligență artificială (AI)
- Tehnologie
- Valea Uncanny
- Snapchat
- Chatbots
- Model AI
- Modele de limbaj mare
- Chatgpt
- Etica inteligenței artificiale
? Iată datele pe care le trage de la tine
. Compania spune că peste 150 de milioane de utilizatori au discutat cu chatbot. Snap spune că chatbot -ul său AI este echipat cu mai multe balustrade decât chatgpt, ceea ce ar trebui să -l facă mai sigur pentru Snapchatters mai tineri.
. Dar, în unele chat -uri experimentale cu botul, utilizatorii au descoperit că bot -ul Snapchat ar explica cum să se angajeze în utilizarea substanțelor minore și activități sexuale.
Când Snapchatters a început să converseze experimental cu AI -ul meu, mulți au fost curioși despre accesul chatbot la locația lor. Când AI -ul meu a fost întrebat dacă are locația unui utilizator, acesta va refuza imediat accesul la datele de geolocalizare.
Dar dacă un utilizator a cerut o recomandare a restaurantului în zona sa, AI -ul meu le -ar putea oferi, dovedind că bot -ul are acces la locația Snapchatters. Oamenii au luat pe Twitter pentru a exprima că sunt preocupați de AI -ul meu și au început să fie curioși cu privire la ce date utilizator ar putea accesa botul.
Deci, ce date colectează AI -ul meu și ce face Snap cu ea?
Locație
AI -ul meu poate accesa locația dvs. dacă permiteți Snapchat să vă acceseze locația. SNAP spune că AI -ul meu nu colectează date noi despre locație de la dvs. și trageți doar din datele pe care le -ați furnizat la Snapchat.
Unii utilizatori activează o caracteristică Snapchat numită Ghost Mode care vă permite să vă ascundeți locația de prieteni și să vă eliminați de pe harta Snap. Cu toate acestea, modul fantomă nu se asigură că AI -ul meu nu poate accesa locația dvs. SNAP spune că, chiar și cu modul Ghost, AI -ul meu poate accesa locația dvs. dacă ați acordat permisiunea de urmărire a locației la Snapchat.
Conversații
SNAP stochează conversațiile cu AI -ul meu până când le ștergeți manual, dar poate dura până la 30 de zile pentru ca datele dvs. de conversație să fie eliminate de pe serverele Snapchat. .
Politica de confidențialitate a Snapchat afirmă că toate instantaneele sunt șterse de pe serverele Snapchat după ce toți destinatarii le vizualizează. . .