Kurz wytworzony przez AI powoli opada.
I wychodzą ciekawe ograniczenia.
Lubię być sceptyczny. Tak z definicji, próbować przyjrzeć się zjawiskom spoza perspektywy hajpu.
Dzień działania ChatGPT kosztuje 700k USD - koszty samej infrastruktury. Wytrenowanie modelu jednorazowo szacuje się na 10M USD. Zaczynamy powoli dyskusję o kosztach tej rewolucji. Ktoś oszacował, że jedno pytanie do ChatGPT kosztuje 0.36 USD. A sam prąd kosztuje $50k USD dziennie.
Jakby słabo to się spina. Czy scenariusz nie może być podobny jak automatyka w przemyśle? Niby fajnie, są maszyny, które potrafią składać, co tam mają składać, a nadal jest taniej zatrudnić człowieka.
Za 100M USD można by mieć zespół stu specjalistów, płacić im 8k USD miesięcznie i dałoby się ich utrzymać przez rok. Oczywiście w przypadku ChatGPT dochodzi element skali - cały świat może używać.
Czy stu specjalistów nie jest w stanie osiągnąć lepszych wyników niż AI, w jakimkolwiek zadaniu? Takie pytanie bez odpowiedzi.
Sam Altman powiedział, że era gigantycznych modeli AI dobiega końca, to był fajny eksperyment, i teraz muszą wymyślać jak to zrobić taniej i gdzie indziej modele usprawniać.
Istnieje oczywiście to ryzyko, że na tę technologię będzie stać parę firm na świecie - to jest bardzo niefajne i ryzykowne, i powinniśmy zacząć o tym rozmawiać.
Wreszcie sam problem sufitu-AI, który w skrócie brzmi tak: skąd AI ma się dalej uczyć, jeśli od teraz treści w internecie generują modele? To nie jest takie proste znaleźć odpowiedni zbiór danych, a wygląda, że będzie jeszcze trudniej.
Miłego. Obserwuj profil i dopisz się do newslettera.