Buterin: Superinteligentna AI jest ryzykowna, otwarte modele to zabezpieczenie
Współzałożyciel Ethereum, Vitalik Buterin, w odpowiedzi na trwające zmiany w kierownictwie OpenAI podzielił się swoimi przemyśleniami na temat „superinteligentnej” sztucznej inteligencji (AI), określając ją jako „ryzykowną”.
Jan Leike, były szef działu zgodności w OpenAI, zrezygnował ze stanowiska, twierdząc, że osiągnął „punkt krytyczny” w relacjach z zarządem firmy w kwestii jej głównych priorytetów.
Leike zarzucił, że w OpenAI”kultura bezpieczeństwa i procesy zostały zepchnięte na dalszy plan na rzecz efektownych produktów”, a wiele osób wskazuje na rozwój w kierunku ogólnej sztucznej inteligencji (AGI).
AGI jest przewidywana jako rodzaj AI równy lub przewyższający zdolności poznawcze człowieka — co już budzi obawy wśród ekspertów branżowych, którzy twierdzą, że świat nie jest odpowiednio przygotowany do zarządzania takimi superinteligentnymi systemami AI.
To wydaje się zgadzać z poglądami Buterina. W poście na X podzielił się swoimi obecnymi przemyśleniami na ten temat, podkreślając, że nie powinniśmy pochopnie podejmować działań ani odrzucać tych, którzy próbują.
Buterin zaznaczył, że otwarte modele działające na sprzęcie konsumenckim stanowią „zabezpieczenie” przed przyszłością, w której mała grupa firm mogłaby kontrolować większość ludzkich myśli.
– mówi.
To jego drugi komentarz w ciągu ostatniego tygodnia na temat AI i jej rosnących możliwości.
16 maja argumentował, że model GPT-4 OpenAI już przewyższył test Turinga, który określa „człowieczeństwo” modelu AI. Powołał się na nowe badania, które twierdzą, że większość ludzi nie potrafi odróżnić rozmowy z maszyną.
Jednak Buterin nie jest pierwszym, który wyraził te obawy. Rząd Wielkiej Brytanii również niedawno przeanalizował rosnące zaangażowanie Big Tech w sektorze AI, podnosząc kwestie związane z konkurencją i dominacją na rynku.
źródło: cointelegraph.com
Strona ma charakter informacyjny. Nie ponosimy odpowiedzialności za decyzje związane z inwestowaniem na rynku kryptowalut.
One Comment