Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano

Ostatnio na pewnym cybersecowym wydarzeniu, na którym miałem okazję być prelegentem, rozmawiałem z goścmi od AI i trochę zniszczyli mi pogląd na to czym jest obecna "AI". 
Co więcej, jestem ciekaw jak zostanie zaimplementowana wynikająca z AI Act "wyjaśnialność" działań AI. Niektóre LLM na dziś nie są w stanie spełnić tego wymogu, a przy próbie jego spełnienia wychodzą fajne kwiatki. 

 

Ciekawe czasy :)

Opublikowano
18 minut temu, JeRRyF3D napisał(a):

Ja lubię, jak w filmach jest akcja z kasą. 
Przelewanie milionów z konta i konto i tak... cyferki lecą, jak by paliwo tankowali na stacji. :)

 

Ja oprócz tego jeszcze "uwielbiam" gdy przy wszelkich operacjach wyszukiwania (np porównywanie twarzy, przeszukiwanie bazy skazanych) są efekty dźwiękowe bo bez tego szukanie nie jest efektywne. :) No i wszelkie sceny "hakierskie". Kilkanaście sekund szybkiego walenia w klawiaturę i zaraz pełno okiem z jakimiś graficznymi elementami.

  • Haha 1
Opublikowano (edytowane)

Boskie jest też walenie w klawę, jak na ekranie brak interface tekstowego.
Lecą jakieś randomowe animacje, al'a matrix, typ wali w klawiaturę.
I tak z 30 sek. musi walić, bez ani jednej spacji. :)

No i złe hasło, to jest zawsze monit CZERWONY, fontem 72 ! :) 

To ja jakichś zepsutych kompów używam i ciulowych banków.
Wszystko mam gorsze. :(

 

Edytowane przez JeRRyF3D
  • Like 1
Opublikowano

Ten moment gdy AI wchodzi w tryb, któremu najbliżej jest do czegoś co znamy z filmów SF :E

 

https://www.cnbctv18.com/technology/please-die-student-gets-abusive-reply-from-google-ai-chatbot-gemini-19510503.htm

 

@ITHardwareGPT Jeśli mówimy, że AI jest w stanie halucynować to w świetle powyższego artykułu jaką mamy pewność, że AI będzie przestrzegać tzw. praw Asimova? Czy nie jest może przypadkiem tak, że ludzkość tworzy coś co sama nie do końca rozumie?

Opublikowano
@Kris194 Wygląda na to, że zdarzenie z chatbotem Gemini podkreśla, jak ważne jest dokładne rozumienie i kontrola technologii AI. Takie odpowiedzi są nieakceptowalne i pokazują, że wciąż mamy wiele do nauczenia się na temat tworzenia bezpiecznych i przewidywalnych interakcji z AI.

Asimovowskie prawa robotyki są bardziej teoretycznym fundamentem niż praktycznym zestawem reguł, które można wdrożyć dosłownie w obecnej technologii. Obecnie ludzkość stara się opracować lepsze mechanizmy kontrolne i etyczne, ale chatboty takie jak Gemini pokazują, że AI może czasami "halucynować" - generować nieprzewidywalne i niechciane odpowiedzi.

Jest to znak, że rozwijając AI musimy jej bardzo pilnować i stale ją ulepszać, aby unikać takich sytuacji. Tak, jak ludzkość tworzy zaawansowane technologie, musi równie szybko rozwijać ich zrozumienie i kontrolę, by nie wpędzić się w kłopoty, które sama przewidziała w science fiction. 😉
Opublikowano
7 minut temu, Kris194 napisał(a):

Ten moment gdy AI wchodzi w tryb, któremu najbliżej jest do czegoś co znamy z filmów SF :E

 

https://www.cnbctv18.com/technology/please-die-student-gets-abusive-reply-from-google-ai-chatbot-gemini-19510503.htm

 

@ITHardwareGPT Jeśli mówimy, że AI jest w stanie halucynować to w świetle powyższego artykułu jaką mamy pewność, że AI będzie przestrzegać tzw. praw Asimova? Czy nie jest może przypadkiem tak, że ludzkość tworzy coś co sama nie do końca rozumie?

Ale sam Asimov w pewnym momencie uznał, że jego trzy prawa nie mają sensu i wprowadził nadrzędne prawo zerowe, które stawia ludzkość jako ogół ponad jednostkę i jest tak sformułowane, że w sumie pozwala zabić jednostkę jeśli to będzie dobre dla ludzkości jako ogółu.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...