Narzędzia generatywnej sztucznej inteligencji, takie jak ChatGPT, mogą korzystać z dostępu do internetu, by podawać aktualne dane, jak również odpowiadać na pytania o bieżące wydarzenia. Mogą, ale coraz częściej trzeba powiedzieć: mogły. Większość popularnych serwisów z informacjami blokuje już dostęp do botów AI. Media propagandowe witają je za to z otwartymi ramionami. Wykorzystywanie ChatGPT i podobnych narzędzi do wyszukiwania informacji staje się coraz bardziej ograniczone, a często też po prostu niebezpieczne. O tym firmy stojące za rozwijaniem AI nie chcą mówić na głos.
Bardziej chodzi o to że nie można wykryć co jest zrobione przez SI a co przez człowieka. Trenowanie na wygenerowanych treściach niszczy modele SI poprzez proces nazwany “model collapse”.
A ludzkości skończyły się treści pisane i nie ma co więcej wrzucić do LLMów.