www.wikidata.de-de.nina.az
Generative Pre trained Transformer 3 GPT 3 ist ein autoregressives Sprachmodell das Deep Learning verwendet um naturlich wirkenden Text zu produzieren Es ist der Nachfolger von GPT 2 und wurde von OpenAI entwickelt einem amerikanischen Unternehmen das Forschung zu kunstlicher Intelligenz betreibt 2 Die grosste Version von GPT 3 besitzt 175 Milliarden Parameter Es wurde im Mai 2020 vorgestellt und befindet sich Stand Juli 2020 in einer Betaphase 3 GPT 3 ist Teil eines Trends in der Computerlinguistik Systeme mit vortrainierten Sprachreprasentationen zu nutzen Vor der Veroffentlichung von GPT 3 war Microsofts Turing NLG das grosste Sprachmodell dieses wurde Februar 2020 vorgestellt und besass mit 17 Milliarden Parametern weniger als ein Zehntel der Kapazitat von GPT 3 Generative Pre trained Transformer 3 GPT 3 BasisdatenEntwickler OpenAIErscheinungsjahr 28 Mai 2020Aktuelle Version 175B 1 Lizenz proprietare Lizenzhttps openai com blog openai apiDie Qualitat der von GPT 3 generierten Texte ist so hoch dass es schwierig ist sie von Texten zu unterscheiden die von Menschen geschrieben wurden was sowohl Vorteile als auch Nachteile hat 31 Forscher und Ingenieure arbeiteten an der initialen Fachpublikation vom 28 Mai 2020 in der sie auch vor moglichen Gefahren durch GPT 3 warnten und weitere Forschung zur Risikominimierung forderten 34 David Chalmers ein australischer Philosoph beschrieb GPT 3 als eines der interessantesten und wichtigsten KI Systeme die je produziert wurden 4 Microsoft verkundete am 22 September 2020 dass es die exklusiven Nutzungsrechte an GPT 3 lizenziert habe andere konnen weiterhin die offentliche API nutzen aber nur Microsoft habe Kontrolle uber den Quellcode Es gibt mehrere Startups die auf GPT 3 aufbauen 5 Inhaltsverzeichnis 1 Hintergrund 2 Fahigkeiten 3 Rezeption 4 Anwendungen 5 BelegeHintergrund BearbeitenLaut der britischen Zeitschrift The Economist haben verbesserte Algorithmen leistungsfahige Computer und eine grossere Menge digitalisierter Daten eine Revolution des maschinellen Lernens vorangetrieben Neue Technologien der 2010er Jahre resultierten in schnellen Fortschritten bei Aufgaben wie zum Beispiel Sprachverarbeitung 6 Softwaremodelle werden trainiert unter Verwendung von tausenden oder Millionen von Beispielen zu lernen in einer Struktur lose der neuralen Architektur des Gehirns nachempfunden Eine Architektur die in der Verarbeitung naturlicher Sprache verwendet wird ist der erstmals 2017 vorgestellte Transformer ein neuronales Netzwerk basierend auf einem Deep Learning Modell Die GPT n Modelle nutzen eine solche Transformer basierte Architektur Es gibt eine Reihe von computerlinguistischen Systemen die in der Lage sind Sprache zu verarbeiten sie zu organisieren und Verbindungen herzustellen sie zu verstehen und Antworten auf Fragen zu generieren 7 Am 11 Juni 2018 veroffentlichte OpenAI ihre erste Fachpublikation uber generative Modelle die mit einem enorm grossen und diversen Textkorpus in einem Prozess namens Generative Pre Training GP vortrainiert werden konnen 8 Die Autoren beschrieben wie die Leistungen im maschinellen Sprachverstehen bei GPT n durch eine Anwendung von generativem Pre Training eines Sprachmodells auf einem diversen nicht mit Labeln versehen Korpus gefolgt von diskriminativem Fine Tuning fur jede spezifische Aufgabe Das machte Beaufsichtigung durch Menschen unuberwachtes Lernen und zeitintensive manuelle Labelerstellung unnotig Februar 2020 stellte Microsoft Turing Natural Language Generation T NLG vor das zurzeit mit 17 Milliarden Parametern das grosste je veroffentlichte Sprachmodell war 9 Es erzielte bei einer Vielzahl von Aufgaben darunter bei automatischer Textzusammenfassung und bei der Beantwortung von Fragen bessere Leistungen als jedes andere Sprachmodell Fahigkeiten BearbeitenAm 28 Mai 2020 veroffentlichte OpenAI ein Preprint auf arXiv das die Entwicklung von GPT 3 einem dem Stand der Technik entsprechenden Sprachmodell der dritten Generation beschrieb Das Team vergrosserte die Kapazitat von GPT 3 im Vergleich zum Vorgangermodell GPT 2 um mehr als das Hundertfache 10 Damit stellte es das grosste Sprachmodell seiner Art dar 14 2 Die grossere Zahl an Parametern ermoglicht im Vergleich zu kleineren Modellen eine grossere Genauigkeit 11 Die Kapazitat von GPT 3 ist mehr als das Zehnfache derer von Microsofts Turing NLG Sechzig Prozent des gewichteten Pre Training Datasets fur GPT 3 entstammen einer gefilterten Version von Common Crawl bestehend aus 410 Milliarden Tokens 9 Andere Quellen sind 19 Milliarden Tokens aus WebText2 fur 22 des gewichteten Datasets 12 Milliarden Tokens aus Books1 fur 8 55 Milliarden Tokens from Books2 fur 8 und 3 Milliarden Tokens aus Wikipedia fur 3 9 GPT 3 wurde auf hunderten Milliarden Wortern trainiert und ist in der Lage Code in CSS JSX Python und anderen Sprachen zu generieren 3 Da die Trainingsdaten allumfassend waren wird kein weiteres Training fur spezifische Anwendungen benotigt Am 11 Juni 2020 verkundete OpenAI dass Benutzer Zugriff auf eine GPT 3 API anfragen konnten um OpenAI beim Erkunden der Starken und Grenzen dieser neuen Technologie zu helfen 12 13 Die Einladung beschrieb dass die API einen Text als Eingabe akzeptiert um dann einen Ausgabetext zu generieren Damit konne fast jede englische Sprachverarbeitungsaufgabe durchgefuhrt werden im Gegensatz zu den ublichen zweckspezifischen Anwendungen Laut einem Nutzer mit fruhem privaten Zugriff auf die GPT 3 API war GPT 3 unheimlich gut darin erstaunlich koharenten Text auf nur wenige einfache Aufforderungen hin zu generieren 14 GPT 3 kann Nachrichtenartikel produzieren bei denen Menschen Schwierigkeiten haben sie von menschengemachten Artikeln zu unterscheiden und hat daher das Potential sowohl die nutzlichen als auch die schadlichen Anwendungen von Sprachmodellen voranzutreiben 34 In der Publikation vom 28 Mai 2020 beschrieben die Forscher detailliert die potentiellen schadhaften Auswirkungen von GPT 3 darunter Misinformation Spam Phishing Missbrauch von Rechts und Regierungsprozessen betrugereische Erstellung von akademischen Aufsatzen und Social Engineering Die Autoren sprechen diese Thematik an um Forschung zur Risikominimierung zu fordern 34Rezeption BearbeitenIn einem Bericht vom 29 Juli 2020 in der New York Times beschrieb Farhad Manjoo GPT 3 als nicht nur erstaunlich gruselig and demutigend sondern auch mehr als ein wenig erschreckend 15 Daily Nous prasentierte eine Reihe von Artikeln zum Thema GPT 3 geschrieben von neun Philosophen 16 Der australische Philosoph David Chalmers beschrieb GPT 3 als eines der interessantesten und wichtigsten KI Systeme die je produziert wurden 4 Wired berichtete GPT 3 lasst im Silicon Valley Schauer uber Rucken laufen 17 National Law Review schrieb GPT 3 sei ein beeindruckender Schritt im grosseren Prozess wobei OpenAI und andere nutzliche Anwendungen fur all diese Macht fanden wahrend sie weiterhin auf eine Allgemeine Kunstliche Intelligenz hinarbeiten 18 Ein Artikel in MIT Technology Review unter anderem verfasst vom Deep Learning Kritiker Gary Marcus 19 stellte fest dass das Verstandnis der Welt haufig ernstlich fehlerhaft sei was bedeutet man kann nie wirklich dem Vertrauen was es sagt Laut den Autoren modelliert GPT 3 Beziehungen zwischen Wortern ohne ein Verstandnis der Bedeutung jeden Wortes zu besitzen Jerome Pesenti Leiter des Facebook A I Lab sagte GPT 3 sei unsicher mit Verweis auf sexistische rassistische und andere voreingenommene und negative Sprache die vom System verwendet wurde als es aufgefordert wurde Text uber Juden Frauen Schwarze und den Holocaust zu generieren 20 Nabla ein franzosisches Startup das sich in Gesundheitstechnologie spezialisiert testete GPT 3 as medizinischen Chatbot obwohl OpenAI bereits vor solcher Nutzung gewarnt hatte Wie erwartet zeigte GPT 3 schwere Einschrankungen Zum Beispiel schlug bei Tests zum Thema psychische Gesundheit das System einem Patienten vor Suizid zu begehen 21 Anwendungen BearbeitenGPT 3 wurde von Andrew Mayne fur AI Writer verwendet ein Projekt das Menschen ermoglicht mit historischen Personen via E Mail zu korrespondieren GPT 3 wurde von Jason Rohrer fur ein Chatbot Projekt im Retro Stil genannt Project December genutzt welches online verfugbar ist und Nutzern unter Verwendung von GPT 3 erlaubt mit verschiedenen Kunstlichen Intelligenzen zu kommunizieren GPT 3 wurde von The Guardian benutzt um einen Artikel uber die Harmlosigkeit von kunstlicher Intelligenz zu schreiben Dafur wurden einige Ansatze geliefert aus denen GPT 3 acht verschiedene Essays generierte die letztlich zu einem Artikel zusammengefuhrt wurden 22 GPT 3 wird in AI Dungeon einem textbasierten Adventure Spiel verwendet um Handlung zu generieren Belege Bearbeiten In Language Models are Few Shot Learners 22 Juli 2020 To study the dependence of ML performance on model size we train 8 different sizes of model ranging over three orders of magnitude from 125 million parameters to 175 billion parameters with the last being the model we call GPT 3 a b Sam Shead Why everyone is talking about the A I text generator released by an Elon Musk backed lab In CNBC 23 Juli 2020 Abgerufen am 31 Juli 2020 englisch a b Frederik Bussler Will GPT 3 Kill Coding In Towards Data Science 21 Juli 2020 abgerufen am 1 August 2020 englisch a b David Chalmers GPT 3 and General Intelligence In Daily Nous 30 Juli 2020 abgerufen am 4 August 2020 englisch Anton Shardin Apps and Startups powered by GPT 3 In Medium 29 Oktober 2020 abgerufen am 10 Februar 2021 englisch An understanding of AI s limitations is starting to sink in In The Economist 11 Juli 2020 Abgerufen am 31 Juli 2020 englisch Natural Language Processing Abgerufen am 31 Juli 2020 englisch Alec Radford Karthik Narasimhan Improving Language Understanding by Generative Pre Training 11 Juni 2018 S 12 abgerufen am 31 Juli 2020 englisch Bruce Sterling Web Semantics Microsoft Project Turing introduces Turing Natural Language Generation T NLG In Wired 13 Februar 2020 Abgerufen am 31 Juli 2020 englisch Language Models are Unsupervised Multitask Learners Abgerufen am 31 Juli 2020 englisch Tiernan Ray OpenAI s gigantic GPT 3 hints at the limits of language models for AI In ZDNet 1 Juni 2020 abgerufen am 31 Juli 2020 englisch OpenAI API In OpenAI 11 Juni 2020 abgerufen im 1 Januar 1 englisch TechCrunch Startup and Technology News In TechCrunch 11 Juni 2020 abgerufen am 31 Juli 2020 englisch If you ve ever wanted to try out OpenAI s vaunted machine learning toolset it just got a lot easier The company has released an API that lets developers call its AI tools in on virtually any English language task Arram GPT 3 An AI that s eerily good at writing almost anything In Arram Sabeti 9 Juli 2020 abgerufen am 31 Juli 2020 englisch Farhad Manjoo How Do You Know a Human Wrote This In The New York Times 29 Juli 2020 Abgerufen am 4 August 2020 englisch Philosophers On GPT 3 updated with replies by GPT 3 In Daily Nous 30 Juli 2020 abgerufen am 31 Juli 2020 englisch Tom Simonite Did a Person Write This Headline or a Machine In Wired 22 Juli 2020 Abgerufen am 31 Juli 2020 englisch Theodore Claypoole New AI Tool GPT 3 Ascends to New Peaks But Proves How Far We Still Need to Travel In The National Law Review 30 Juli 2020 abgerufen am 4 August 2020 englisch Gary Marcus The deepest problem with deep learning In Medium 1 Dezember 2018 abgerufen am 29 September 2020 englisch Cade Metz Meet GPT 3 It Has Learned to Code and Blog and Argue In The New York Times 24 November 2020 amerikanisches Englisch Medical chatbot using OpenAI s GPT 3 told a fake patient to kill themselves In AI News 28 Oktober 2020 abgerufen am 8 Januar 2021 britisches Englisch GPT 3 A robot wrote this entire article Are you scared yet human GPT 3 In The Guardian 8 September 2020 Abgerufen am 15 September 2020 englisch Abgerufen von https de wikipedia org w index php title Generative Pre trained Transformer 3 amp oldid 236283136