diff --git a/pages/applications.de.mdx b/pages/applications.de.mdx index 57d642c5f..1ad7c28e8 100644 --- a/pages/applications.de.mdx +++ b/pages/applications.de.mdx @@ -1,4 +1,4 @@ -# LLM-Anwendungen +# LLM-Anwendungen & Anleitungen import { Callout } from 'nextra-theme-docs'; import { Cards, Card } from 'nextra-theme-docs'; @@ -7,4 +7,4 @@ import ContentFileNames from 'components/ContentFileNames' In diesem Abschnitt werden wir einige fortgeschrittene und interessante Methoden besprechen, wie wir Prompt-Engineering nutzen können, um nützliche und anspruchsvollere Aufgaben mit LLMs (große Sprachmodelle) zu bewältigen. - \ No newline at end of file + diff --git a/pages/applications/_meta.de.json b/pages/applications/_meta.de.json index 769e0553c..954ef2b27 100644 --- a/pages/applications/_meta.de.json +++ b/pages/applications/_meta.de.json @@ -1,5 +1,6 @@ { "function_calling": "Funktionsaufrufe", + "context-caching": "Kontext-Caching mit LLMs", "generating": "Generierung von Daten", "synthetic_rag": "Generierung eines synthetischen Datensatzes für RAG", "generating_textbooks": "Umgang mit generierten Datensätzen und deren Vielfalt", diff --git a/pages/applications/context-caching.de.mdx b/pages/applications/context-caching.de.mdx new file mode 100644 index 000000000..c16d2294b --- /dev/null +++ b/pages/applications/context-caching.de.mdx @@ -0,0 +1,54 @@ +# Kontext-Caching mit Gemini 1.5 Flash + +import {Cards, Card} from 'nextra-theme-docs' +import {CodeIcon} from 'components/icons' + +Google hat kürzlich ein neues Feature namens [Kontext-Caching](https://ai.google.dev/gemini-api/docs/caching?lang=python) veröffentlicht, das über die Gemini-APIs mithilfe der Modelle Gemini 1.5 Pro und Gemini 1.5 Flash verfügbar ist. Diese Anleitung bietet ein grundlegendes Beispiel dafür, wie man Kontext-Caching mit Gemini 1.5 Flash verwendet. + +