Eine Gruppe von Experten für künstliche Intelligenz, darunter auch Elon Musk, hat in einem offenen Brief des “Future of Life Institute” eine sechsmonatige Pause bei der Entwicklung von leistungsfähigeren KI-Systemen als dem Modell GPT-4 von OpenAI gefordert. Warum?

Der Grund dafür sind die potenziellen Risiken, die solche Systeme für die Gesellschaft und die Menschheit darstellen können. Die Unterzeichner des Briefs warnen vor den Auswirkungen auf Wirtschaft und Politik sowie vor möglichen Missbräuchen wie Phishing-Versuchen, Desinformation und Cyberkriminalität.

 

KI, AI, Stop

Die Experten fordern gemeinsame Sicherheitsprotokolle und unabhängige Prüfungen, um sicherzustellen, dass die Auswirkungen der leistungsstarken KI-Systeme positiv sind und die Risiken überschaubar bleiben. Die Bedeutung der KI-Entwicklung wird durch den Hype um den von Microsoft unterstützten Chatbot ChatGPT von OpenAI unterstrichen, der seit seiner Veröffentlichung im November 2022 einen Ansturm von Nutzern ausgelöst hat. Konkurrenten wie Baidu entwickeln ähnliche Sprachmodelle, um generative KI-Modelle in ihre Produkte zu integrieren.

Einige Staaten, insbesondere China, betrachten KI als strategisch wichtig und wollen Entwicklern große Freiheiten lassen. Gleichzeitig haben Unternehmen wie Microsoft und Google ein Rennen um die technologische Führerschaft bei KI gestartet, da sie sich von dieser Technologie sprudelnde Gewinne versprechen.

Es ist jedoch wichtig, die Auswirkungen der KI-Entwicklung auf die Gesellschaft und die Menschheit zu verstehen und zu berücksichtigen. Daher ist es positiv zu sehen, dass eine Gruppe von Experten auf die möglichen Risiken hinweist und Sicherheitsprotokolle und unabhängige Prüfungen fordert, bevor leistungsstarke KI-Systeme entwickelt werden.