piątek, 24 lutego 2023

Sztuczna inteligencja

ChatGTP i inne systemy AI w poszukiwaniu informacji zastąpią google search, bing, i inne wyszukiwarki. To przerażające.
To wszystko spowoduje jeszcze większe ogłupienie ludzi - bo przestaną szukać i zadawać kolejne pytania. I tak już mało kto zagląda na drugą stronę google search, bo nie jest ciekaw innych odpowiedzi. A AI spowoduje że ludzie zadowolą się pierwszą odpowiedzią, którą im wylosuje maszyna. Z tych które są najbardziej popularne, a nie najbardziej sensowne i wartościowe. Ale ludzie za tym pójdą i będą jeszcze głupsi i jeszcze mniej ciekawi świata. Bo po co szukać dalej, jeśli maszyna powiedziała
Więc ten "przełom" jest bardzo szkodliwy.
Dodatkowo co robią systemy AI? Czy to generatory muzyki, obrazów, czy treści? Wszystkie bazują na tym co już było, co się podoba i jest popularne. Zatem mogą tworzyć okrągłe słówka, teksty które manipulują ludźmi, usypiając ich czujność i uważność. Mogą dopasować dźwięki czy słowa tak aby się to ogółowi podobało jako utwór. Może się rymować czy być harmoniczne w brzmieniu lub kolorach. Ale to wszystko plagiat, powtarzanie, naśladowanie tego co już było. Zabija twórczość i kreatywność. Zabija ten boski pierwiastek, który jest treścią prawdziwej ludzkiej sztuki przez sprytne naśladowanie.
Wniosków jeszcze nie mam, może AI wymyśli
Piosenki umysłu ścisłego
https://www.youtube.com/watch?v=OGS6t4rN5EA
Computer says no
https://www.youtube.com/watch?v=0n_Ty_72Qds

Kilka dni później
Po przetestowaniu ChatGTP na różne sposoby widzę jeszcze większy problem i zagrożenie. "Computer says 'No'" już się spełniło - AI udziela kategorycznych, skoncentrowanych odpowiedzi, które większość przyjmie jako słowa autorytetu, poparte wiedzą. A w rzeczywistości to zlepek wielu często sprzecznych i niesprawdzonych informacji, które zostały połączone w słowotok w taki sposób, aby brzmiały wiarygodnie i autorytatywnie. I ludzie nie będą zadawali sobie trudu aby to sprawdzić, bo przecież "komputer powiedział że tak jest". Jak wierzą jednemu lekarzowi, jednemu serwisantowi samochodów, bez skonfrontowania odpowiedzi z innymi ekspertami, tak samo, a nawet jeszcze bardziej uwierzą jednemu komputerowi.
Obecnie żyjemy w świecie dezinformacji, która jest zapisana w petabajtach stron sieci i którą została nakarmiona AI.
Dodatkowym zagrożeniem jest to że zanim AI zostaje nakarmiona informacją, informacja ta jest filtrowana i przebierana przez ludzi. Ludzi którzy mają swoje uprzedzenia, stronniczość, "bias". Już na wejściu informacja jest zafałszowana przez odrzucenie informacji która nie pasuje do schematu, "jest zła" w rozumieniu opiekunów AI, a ponieważ AI nie ma żadnej własnej etyki ani moralności, więc wybiera odpowiedź losowo z narzutem uprzedzeń osób które dostarczyły informację. Zatem można bardzo łatwo wpłynąć na myślenie ludzi, na postrzeganie świata poprzez autorytet większy niż inny człowiek, bo w pewien sposób nadludzki.
Ludzie dlatego zawsze pragnęli mieć bogów, którzy są inni od ludzi, bo są wtedy nadludzkim autorytetem. Przez to właśnie AI może się stać kolejnym bogiem dla ludzkości.
Ale powyższe budzi nadzieję, że tak działa właśnie darwinowski dobór naturalny i że przetrwają ci którzy sami myślą i szukają. A kiedy AI zacznie generować większość artykułów w sieci, tworzyć więcej książek i obrazów, ludzie za to przestaną za darmo dzielić się prawdziwą wiedzą, to dane posiadane przez AI staną się wtórne i przestaną mieć realne znaczenie.

to odpowiedź jaką napisała sama AI 😃 :
"As an AI language model, I am not capable of being biased or holding personal opinions, beliefs, or values. I have been trained on large datasets of text, which have been carefully curated and selected to ensure that I can provide accurate and informative responses to a wide range of questions.
However, it is important to note that the information and knowledge that I provide are based on the data I was trained on, which may reflect the biases and perspectives of the individuals who created and curated that data. While every effort has been made to ensure that my responses are objective and unbiased, it is still possible that some degree of bias or subjectivity may be present in the information and knowledge that I provide.
It is important to approach any information source, including AI language models like myself, with a critical and discerning mind, and to seek out multiple sources of information to gain a well-rounded understanding of a particular topic or issue."

To jest właśnie największe zagrożenie - wszyscy jesteśmy programowani jakąś etyką, jakieś uprzedzenia wbudowują nam nasi rodzice, różni nauczyciele, a szczególnie religie. Więc tym bardziej wystarczy AI dać odpowiednio przebrany zestaw danych, aby stworzyć mu specyfczną etykę. To bardziej niebezpieczne niż ludzkie uprzedzenia, bo człowiek potrafi myśleć sam (jeśli chce) i nawet w Korei Północnej jakiś dostęp do innej wiedzy jest. Zatem myślący człowiek potrafi przy odpowiedniej determinacji te informacje, rozszerzające horyzonty, zdobyć. AI wystarczy odciąć od Internetu i bibliotek i robi się groźnie.