Daniela Amodei von Anthropic schildert, wie sie im KI-Medienrummel einen kühlen Kopf (und ihre Prinzipien) behält
Für Daniela Amodei, Mitgründerin und Präsidentin des KI-Unternehmens Anthropic, bot das explodierende Interesse an ihrem Fachgebiet eine Gelegenheit zur Reflexion. „Wenn man über die weltweite Reaktion auf die KI nachdenkt, kann sich das erdrückend anfühlen“, sagt sie. „Wir müssen uns innerlich fragen: Warum haben wir das getan? Weshalb haben wir Anthropic gegründet? Weil wir dazu beitragen wollen, dass KI-Systeme vom ersten Tag an sicherer sind.“
Seit Februar hat Anthropic, eingetragen als gemeinnützige Gesellschaft und spezialisiert auf KI-Sicherheit und -Forschung, eine Partnerschaft mit Google angekündigt, eine Finanzierungsrunde über 450 Millionen Dollar abgeschlossen, und seinen Chatbot „Claude“ vorgestellt (einschließlich der neuesten Version „Claude 2“, die gestern erschienen ist). In den letzten zwei Jahren hat Anthropic ein großes Sprachmodell (Large Language Model) erstellt und gleichzeitig ein Unternehmen vergrößert, das zudem Forschungsarbeiten veröffentlicht und die Diskussion über künstliche Intelligenz in der Welt der Medien, der Politik und der Technologie selbst anführt. Inmitten dieses Wachstums hat sich Anthropic an Stripe gewandt – im Vertrauen darauf, dass die Skalierbarkeit und die internationale Ausrichtung der Zahlungsplattform von Stripe es Anthropic ermöglichen werden, eine weltweit schnell wachsende Kundschaft zu bedienen.
Amodei sprach mit Stripe darüber, warum sie solch breit gefächerte Ziele für wichtig hält – und warum sie glaubt, dass ein Unternehmen, dessen Zweck dem Wohl aller Menschen dient, in einem umkämpften Markt erfolgreich sein kann.
Was verbirgt sich hinter dem Namen Anthropic? Warum dieses Wort?
Ein Grund dafür ist, dass „anthropisch“ auf den Bezug zum Menschen verweist. Bei unserer Arbeit an immer leistungsfähigeren generativen Tools, die mit der Welt interagieren, ist es uns wichtig, dass der Mensch stets im Mittelpunkt bleibt. Wir hoffen, dass die Menschen Claude als Partner oder Kollegen nutzen, der ihnen hilft, die Dinge zu tun, die sie tun möchten, und das Leben zu leben, das sie leben möchten. Wir achten auch darauf, dass der Mensch im Mittelpunkt unseres Prozesses steht, sei es beim bestärkenden Lernen aus menschlichem Feedback oder beim Nachdenken darüber, wie KI die Welt insgesamt beeinflussen wird.
Wie haben Sie diese Aufgabe auf eine begrenzte Anzahl von Projekten heruntergebrochen, mit denen Sie bei Ihrem Start beschäftigt waren?
Als wir von OpenAI weggingen, mussten wir ein großes generatives Sprachmodell von Grund auf neu aufbauen. Unser erstes Jahr drehte sich darum, ein Unternehmen auf die Beine zu stellen, die Finanzierung zu sichern und das Sprachmodell zu trainieren.
Darüber hinaus haben wir auch Sicherheitsforschung betrieben, um es zum sichersten Modell auf dem Markt zu machen. Zu Beginn hatten wir etwa sechs Teams, wovon die meisten an der Sicherheit des Modells gearbeitet haben. Obwohl wir schon immer geplant hatten, ein Produkt auf den Markt zu bringen, waren wir bis vor etwa sechs bis neun Monaten ein reiner Forschungsbetrieb.
Sehen Sie einen Vorteil darin, dass Physiker an diesen Themen arbeiten? War das Absicht?
Mein Bruder Dario, der CEO, hat einen Doktortitel in Physik, ebenso unser Mitgründer und Chief Science Officer Jared Kaplan. Manches ergab sich aus unserem Netzwerk, aber auch der Großteil der Arbeit, für die unser Team am bekanntesten war, wurde von Leuten mit diesem Hintergrund geleistet. Die beiden Dinge, für die wir wohl am bekanntesten sind, sind das Team, das GPT-3 entwickelt hat, und das Team, das dieses Paper über Skalierungsgesetze verfasst hat, in dem es darum geht, wie man vorhersagen kann, wann sich bestimmte Fähigkeiten in generativen KI-Systemen entwickeln werden. Grundlage dafür war die Anwendung physikalischer Prinzipien auf die KI.
Sie beschäftigen sich schon eine Weile mit dem Thema, und nun scheint es, als hätte der Rest der Welt es gerade erst entdeckt. Wie fühlt man sich als Unternehmensgründerin inmitten dieses Orkans?
Zu meinem Mann habe ich gesagt, dass es sich manchmal so anfühlt, als würde man ganz schnell eine Treppe hinunterlaufen. Man darf nicht zu sehr darüber nachdenken, sonst fällt man hin. Das heißt nicht, dass wir nicht selbstreflektiert arbeiten. Für mich sind unsere Prinzipien und unser eigener Anteil daran sehr wichtig. Der Gedanke an die Reaktion der ganzen Welt auf KI, an die Interaktion verschiedener Gruppen und Stakeholder mit ihr, kann überwältigend sein. Wir müssen uns also innerlich fragen: Warum tun wir das? Weshalb haben wir Anthropic gegründet? Weil wir dazu beitragen wollen, dass KI-Systeme vom ersten Tag an sicherer sind.
Wie überzeugen Sie Investoren und potenzielle Partner von Vorsicht und Besonnenheit?
Ich denke, der Markt verlangt nach Vertrauen und Sicherheit. Wir glauben, dass dies aus moralischer Sicht richtig ist, aber es ist auch gut für unser Geschäft. Natürlich kann es Fälle geben, in denen sich beides widerspricht, aber nach unserer Erfahrung kann auch beides recht gut synchronisiert werden.
Weder Menschen noch Unternehmen wollen Modelle, die schädliche, unlautere oder nutzlose Ergebnisse liefern. Wenn Sie sagen: „Hey, wollen Sie ein Sprachmodell? Es wird Sie aber die Hälfte der Zeit anlügen und wahrscheinlich toxische Inhalte liefern“, dann wird niemand antworten: „Super, dafür bezahle ich doch gerne.“ Die Menschen wollen, dass die False-Positive-Quote viel näher bei null liegt als bei dem, was derzeit verfügbar ist. Sie wollen die sicherste Version des Modells.
Wie sieht Ihr Alltag aus?
Eigentlich bin ich kein Morgenmensch, aber ich habe meinen Zeitplan so umgestellt, als wäre ich einer. Ich trainiere fast jeden Morgen in aller Frühe und verbringe dann etwas Zeit mit meinem Sohn Galileo und meinem Mann. Das hilft mir, gut gelaunt in den Tag zu gehen.
Ich versuche so oft wie möglich, mir zu Beginn des Arbeitstages ein paar Stunden Zeit für große Projekte zu nehmen und Zeit zum Nachdenken zu haben. Der Rest des Tages besteht aus Meetings – ich habe eher den Zeitplan einer Managerin als den einer Macherin. Es ist eine Kombination aus Einzelgesprächen, Teamsynchronisierung, externen Events, Strategie- und Entscheidungsmeetings, Recruiting und anderen Dingen. Ich versuche immer, etwas Zeit für Treffen mit neuen Mitarbeiterinnen und Mitarbeitern einzuplanen, um von ihren Erfahrungen bei Anthropic zu hören, auch wenn das mit unserem Wachstum immer schwieriger wird.
Tyler Cowen schrieb unlängst auf Bloomberg, dass KI das Ende der uns bekannten großen Unternehmensstrukturen bedeuten könnte, weil das Produkt sich selbst managt. Glauben Sie, dass Anthropic irgendwann mehr Mitarbeiter/innen braucht?
Unsere Wertschöpfung pro Forscher/in liegt sicherlich über der eines traditionellen Unternehmens, aber dennoch benötigt man eine gewisse Personalstärke für Vertrieb, Kundenbetreuung und Qualitätskontrolle. Als wir Claude v1 entwickelt haben, hatten wir etwa 60 Mitarbeiter/innen. Heute sind wir 140. Der größte Teil des Wachstums entfällt auf die Unternehmens- und Produktseite, auf den Kundensupport sowie auf Vertrauen und Sicherheit.