Skip to content

Commit

Permalink
Publishing Site tech.tf1.fr at dcd731c on Mon Jul 1 11:33:15 UTC 2024
Browse files Browse the repository at this point in the history
  • Loading branch information
rpinsonneau committed Jul 1, 2024
1 parent ca005ee commit 6fc76ba
Show file tree
Hide file tree
Showing 3 changed files with 8 additions and 8 deletions.
2 changes: 1 addition & 1 deletion index.xml
Original file line number Diff line number Diff line change
@@ -1,4 +1,4 @@
<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Blog technique e-TF1</title><link>https://tech.tf1.fr/</link><description>Recent content on Blog technique e-TF1</description><generator>Hugo -- gohugo.io</generator><language>fr-FR</language><lastBuildDate>Wed, 26 Jun 2024 09:00:00 +0000</lastBuildDate><atom:link href="https://tech.tf1.fr/index.xml" rel="self" type="application/rss+xml"/><item><title>Déploiement d'un LLM à l'échelle avec TGI</title><link>https://tech.tf1.fr/post/2024/ia/inference-llm-tgi/</link><pubDate>Wed, 26 Jun 2024 09:00:00 +0000</pubDate><guid>https://tech.tf1.fr/post/2024/ia/inference-llm-tgi/</guid><description>L&amp;rsquo;inférence d&amp;rsquo;un Large Language Model Les LLMs (Large Language Model) sont de plus en plus adoptés en entreprise, leur coût, leur mise à l&amp;rsquo;échelle en production ou la confidentialité des données peuvent être un véritable défi.
<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Blog technique e-TF1</title><link>https://tech.tf1.fr/</link><description>Recent content on Blog technique e-TF1</description><generator>Hugo -- gohugo.io</generator><language>fr-FR</language><lastBuildDate>Wed, 26 Jun 2024 09:00:00 +0000</lastBuildDate><atom:link href="https://tech.tf1.fr/index.xml" rel="self" type="application/rss+xml"/><item><title>Déploiement d'un LLM à l'échelle avec TGI</title><link>https://tech.tf1.fr/post/2024/ia/inference-llm-tgi/</link><pubDate>Wed, 26 Jun 2024 09:00:00 +0000</pubDate><guid>https://tech.tf1.fr/post/2024/ia/inference-llm-tgi/</guid><description>L&amp;rsquo;inférence d&amp;rsquo;un Large Language Model Les LLMs (Large Language Model) sont de plus en plus adoptés en entreprise, leur coût, leur mise à l&amp;rsquo;échelle en production ou la confidentialité des données peuvent être de véritables défis.
La solution la plus simple pour réaliser l&amp;rsquo;inférence d&amp;rsquo;un modèle consiste à payer une solution clé en main, telle que :
openAI (chatGPT) Google (Gemini) Anthropic (Claude) Certains services, comme AWS Bedrock permettent de déployer différents modèles.</description></item><item><title>Gestion du Server-Side Ad Insertion (SSAI) sur nos chaînes FAST</title><link>https://tech.tf1.fr/post/2023/pub/streaming-fast-ssai/</link><pubDate>Mon, 06 Nov 2023 09:00:00 +0000</pubDate><guid>https://tech.tf1.fr/post/2023/pub/streaming-fast-ssai/</guid><description>Chaînes FAST FAST est l&amp;rsquo;acronyme pour Free Ad-supported Streaming Television. Il s&amp;rsquo;agit de chaînes en streaming gratuites avec de la publicité. Le principe est de reprendre des contenus du catalogue TF1, typiquement en AVOD (Advertising Video on Demand) et de l&amp;rsquo;assembler pour constituer une grille de programmation qui alimentera une chaîne live. C&amp;rsquo;est le principe de Stream sur MYTF1. On parle alors de re-linéarisation des contenus.
Mise en oeuvre des flux origin eTF1 assure le delivery des contenus VOD en HLS (HTTP Live Streaming) et DASH (Dynamic Adaptive Streaming over HTTP).</description></item><item><title>Workflow d'encodage et delivery vidéo avec Temporal</title><link>https://tech.tf1.fr/post/2023/architecture/workflow-video-avec-temporal/</link><pubDate>Sun, 23 Jul 2023 09:00:00 +0000</pubDate><guid>https://tech.tf1.fr/post/2023/architecture/workflow-video-avec-temporal/</guid><description>Contexte du nouveau workflow Dans un objectif de faire évoluer et de rendre plus flexible notre workflow d&amp;rsquo;encodage et de mise à disposition de nos flux vidéo (ce que nous appelons le delivery, principalement aux formats Dash et HLS), nous avons souhaités effectuer une refonte applicative de cette partie de notre stack applicative.
Expand Down
Loading

0 comments on commit 6fc76ba

Please sign in to comment.