Open New Learning Lab Resources

Open New Learning Lab Resources

1055 bookmarks
Newest
Trends Artificial Intelligence - BOND Capitalai
Trends Artificial Intelligence - BOND Capitalai
Die Pflichtlektüre zum Sonntag: Mary Meeker hat einen ihrer legendären Reports gedropped... Nach den jährlichen "Internet Trends" nun ein 340 Seiten Brett ihrer Investment Firma Bond Capital ganz zum Thema AI. Superbes Gedankenfutter hinsichtlich u.a.: 1. Nutzerwachstum und Verbreitung • ChatGPT erreichte 800 Millionen wöchentliche Nutzer in nur 17 Monaten • Verbreitung außerhalb Nordamerikas liegt bei 90 Prozent – nach nur 3 Jahren • Vergleich: Das Internet brauchte dafür 23 Jahre • KI-Anwendungen skalieren global nahezu gleichzeitig 2. Investitionen und Infrastruktur • Big Tech (Apple, Microsoft, Google, Amazon, Meta, Nvidia) investiert über 212 Milliarden Dollar CapEx pro Jahr • KI wird zur neuen Infrastruktur – vergleichbar mit Strom oder Internet • Rechenzentren werden zu produktiven "KI-Fabriken" 3. Entwickler-Ökosysteme explodieren • Google Gemini: 7 Millionen aktive Entwickler, +500 Prozent in 12 Monaten • NVIDIA-Ökosystem: 6 Millionen Entwickler, +6x in sieben Jahren • Open Source spielt zunehmend eine Schlüsselrolle, auch in China 4. Technologischer Fortschritt beschleunigt sich exponentiell • 260 Prozent Wachstum pro Jahr bei Trainingsdatenmengen • 360 Prozent Wachstum pro Jahr beim Compute-Aufwand für Modelltraining • Bessere Algorithmen führen zu 200 Prozent Effizienzsteigerung pro Jahr • Fortschritte bei Supercomputern ermöglichen +150 Prozent Leistungszuwachs jährlich 5. Monetarisierung ist real – aber teuer • OpenAI mit starkem Nutzerwachstum, aber weiterhin Milliardenverluste • Compute-Kosten steigen, Inferenzkosten pro Token sinken • Monetäre Skalierung bleibt herausfordernd und kompetitiv 6. Arbeit und Gesellschaft verändern sich sichtbar • IT-KI-Stellen in den USA: +448 Prozent seit 2018 • Nicht-KI-IT-Stellen: –9 Prozent • Erste autonome Taxis nehmen Marktanteile in Städten wie San Francisco • KI-Scribes in der Medizin reduzieren administrativen Aufwand massiv 7. Wissen und Kommunikation erleben ein neues Zeitalter • Nach Buchdruck und Internet folgt die Ära der generativen Wissensverbreitung • Generative KI verändert, wie wir Wissen erzeugen, verbreiten und nutzen • Anwendungen wie ElevenLabs oder Spotify übersetzen Stimmen in Echtzeit, global skalierbar 8. Geopolitik wird zur KI-Strategie • USA und China investieren aggressiv in souveräne KI-Modelle • Wer KI-Infrastruktur dominiert, definiert ökonomische und politische Macht neu • Führende CTOs sprechen offen von einem neuen "Space Race" 9. Chancen und Risiken sind gewaltig • KI kann medizinische Forschung, Bildung und Kreativität beflügeln • Gleichzeitig drohen Kontrollverlust, Missbrauch, Arbeitsplatzverdrängung, ethische Dilemmata Meinungen? Evangelos Papathanassiou Christian Herold Thorsten Muehl Christoph Deutschmann Constance Stein Rebecca Schalber Sandy Brueckner Dirk Hofmann Henning Tomforde Dr. Paul Elvers Katharina Neubert Laura Seiffe Ekaterina Schneider
·linkedin.com·
Trends Artificial Intelligence - BOND Capitalai
𝗗𝗶𝗲 𝗗𝗶𝗱𝗮𝗸𝘁𝗶𝗸 𝗳𝘂𝗿 𝗱𝗮𝘀 𝗖𝗼𝗿𝗽𝗼𝗿𝗮𝘁𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 𝘄𝗶𝗿𝗱 𝗮𝘂𝗳 𝗱𝗲𝗻 𝗞𝗼𝗽𝗳 𝗴𝗲𝘀𝘁𝗲𝗹𝗹𝘁
𝗗𝗶𝗲 𝗗𝗶𝗱𝗮𝗸𝘁𝗶𝗸 𝗳𝘂𝗿 𝗱𝗮𝘀 𝗖𝗼𝗿𝗽𝗼𝗿𝗮𝘁𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 𝘄𝗶𝗿𝗱 𝗮𝘂𝗳 𝗱𝗲𝗻 𝗞𝗼𝗽𝗳 𝗴𝗲𝘀𝘁𝗲𝗹𝗹𝘁
B𝘦𝘵𝘳𝘪𝘦𝘣𝘭𝘪𝘤𝘩𝘦𝘴 𝘓𝘦𝘳𝘯𝘦𝘯 𝘨𝘪𝘯𝘨 𝘣𝘪𝘴𝘩𝘦𝘳 𝘷𝘰𝘯 𝘧𝘰𝘭𝘨𝘦𝘯𝘥𝘦𝘯 𝘗𝘳𝘢𝘮𝘪𝘴𝘴𝘦𝘯 𝘢𝘶𝘴: • 𝘞𝘪𝘴𝘴𝘦𝘯𝘴- 𝘶𝘯𝘥 𝘘𝘶𝘢𝘭𝘪𝘧𝘪𝘬𝘢𝘵𝘪𝘰𝘯𝘴𝘻𝘪𝘦𝘭𝘦 𝘴𝘪𝘯𝘥 𝘧𝘶𝘳 𝘢𝘭𝘭𝘦 𝘨𝘭𝘦𝘪𝘤𝘩 𝘪𝘯 𝘦𝘪𝘯𝘦𝘮 𝘊𝘶𝘳𝘳𝘪𝘤𝘶𝘭𝘶𝘮 𝘷𝘰𝘳𝘨𝘦𝘨𝘦𝘣𝘦𝘯.  • 𝘋𝘪𝘦𝘴𝘦 𝘡𝘪𝘦𝘭𝘦 𝘸𝘦𝘳𝘥𝘦𝘯 𝘪𝘯 𝘧𝘳𝘦𝘮𝘥𝘰𝘳𝘨𝘢𝘯𝘪𝘴𝘪𝘦𝘳𝘵𝘦𝘯 𝘓𝘦𝘩𝘳𝘢𝘳𝘳𝘢𝘯𝘨𝘦𝘮𝘦𝘯𝘵𝘴 „𝘷𝘦𝘳𝘮𝘪𝘵𝘵𝘦𝘭𝘵“.  • 𝘋𝘪𝘦 𝘈𝘶𝘧𝘣𝘢𝘶 𝘥𝘦𝘳 𝘏𝘢𝘯𝘥𝘭𝘶𝘯𝘨𝘴𝘧𝘢𝘩𝘪𝘨𝘬𝘦𝘪𝘵 𝘪𝘯 𝘥𝘦𝘳 𝘗𝘳𝘢𝘹𝘪𝘴 (𝘒𝘰𝘮𝘱𝘦𝘵𝘦𝘯𝘻𝘦𝘯) 𝘸𝘪𝘳𝘥 𝘥𝘶𝘳𝘤𝘩 𝘛𝘳𝘢𝘯𝘴𝘧𝘦𝘳𝘢𝘶𝘧𝘨𝘢𝘣𝘦𝘯 𝘨𝘦𝘴𝘪𝘤𝘩𝘦𝘳𝘵. Wir erleben aktuell, verstärkt durch die Künstliche Intelligenz, einen Paradigmenwechsel, der diese betriebliche Didaktik auf den Kopf stellt:  • Formelle Bildungsangebote auf Basis von Curricula werden nach und nach durch „𝗙𝗹𝗶𝗽𝗽𝗲𝗱 𝗖𝘂𝗿𝗿𝗶𝗰𝘂𝗹𝗮“ (vgl. Sabine Seufert 2024) ersetzt. Danach bilden Werte und Kompetenzen – Soft Skills – die Ziele des Corporate Learning. Wissen und Qualifikation sind natürlich weiterhin notwendig, sind aber nicht mehr das Ziel des Lernens, sondern die notwendige Voraussetzung. Dies bedeutet, dass das erforderliche Wissen beispielsweise auch kuratiert durch die KI zur Verfügung gestellt werden kann.  • Der wichtigste Lernort wird der 𝗔𝗿𝗯𝗲𝗶𝘁𝘀𝗽𝗿𝗼𝘇𝗲𝘀𝘀, weil Werte und Kompetenzen nur selbstorganisiert bei der Bewältigung von realen Herausforderungen aufgebaut werden können. Daraus ergibt sich folgender Planungsrythmus. 1. Am Anfang steht die Frage, in welcher 𝗣𝗿𝗮𝘅𝗶𝘀𝗵𝗲𝗿𝗮𝘂𝘀𝗳𝗼𝗿𝗱𝗲𝗿𝘂𝗻𝗴 die angestrebten Soft-Skills aufgebaut werden können. In Abstimmung mit ihren Führungskräften vereinbaren die Mitarbeitenden auf Basis ihrer Skills Diagnostik personalisierte Lernpfade im Arbeitsprozess.   2. Im zweiten Schritt ist zu klären, welche 𝗙𝗹𝗮𝗻𝗸𝗶𝗲𝗿𝘂𝗻𝗴 die selbstorganisierten Lernprozesse der Mitarbeitenden benötigen. Dabei spielt das soziale Lernen eine zentrale Rolle. Begleitet werden diese Prozesse durch die Beratung und Begleitung durch Lernbegleitende und Expert*innen.  3. Erst im dritten Schritt werden diese Lernmaßnahmen bei Bedarf durch 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴𝘀 ergänzt. Beispielsweise bieten sich Methodentrainings, z. B. zu SCRUM, an, wenn die ausgewählten Praxisaufgaben nach agilen Prinzipien erfolgen sollen.   4. In unterstützenden 𝗪𝗲𝗶𝘁𝗲𝗿𝗯𝗶𝗹𝗱𝘂𝗻𝗴𝘀𝗺𝗮ß𝗻𝗮𝗵𝗺𝗲𝗻 können Basiswissen und Grundqualifikationen aufgebaut oder Anstöße für die selbstorganisierten Lernprozess gegeben werden. Lernen erfolgt von Anfang an in der Praxis, indem Arbeiten und Lernen zusammenwachsen. Damit erübrigen sich Konzepte zur Förderung des Lerntransfers weitgehend. Die Verantwortung für das Lernen wandert damit zu den Mitarbeitenden, die dabei von der Personalentwicklung und Ihrer Führungskraft unterstützt werden.
·linkedin.com·
𝗗𝗶𝗲 𝗗𝗶𝗱𝗮𝗸𝘁𝗶𝗸 𝗳𝘂𝗿 𝗱𝗮𝘀 𝗖𝗼𝗿𝗽𝗼𝗿𝗮𝘁𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 𝘄𝗶𝗿𝗱 𝗮𝘂𝗳 𝗱𝗲𝗻 𝗞𝗼𝗽𝗳 𝗴𝗲𝘀𝘁𝗲𝗹𝗹𝘁
5 Moments of Need framework
5 Moments of Need framework
-- Task criticality and risk are central considerations in performance support design. When there's high consequence for error (safety risks, costly damage, or life-or-death stakes) the skill guide design needs to be highly intentional, context-aware, and tightly integrated into the environment of use. -- A skill guide is great in high-risk situations (we were in an airline context). In a low-stakes context a pre-flight checklist is great for trained pilots. It supports memory recall for the essential steps in a high-risk task. -- In a context such as de-icing a plane, a diagram-based skill guide is great to illustrate the basic controls of the machine. This helps build mental models. -- In flight simulation training, skill guides can walk a novice through tasks like starting the engine, adjusting trim, or responding to a warning light. These guides scaffold learning and reduce cognitive load in a controlled environment. -- Of course, skill guides can't always replace training. Real-time control of a plane requires deeply embodied skill: fine motor control, situational awareness, and rapid decision-making. You can't guide someone through that just in time with a single page or even a tablet-based tool. -- In life-critical systems, there’s a threshold beyond which skill guides must give way to rigorous training, simulation, and certification. Performance support becomes a supplement, not a substitute in these contexts. Bob and Con have had immeasurable impact on my career and perspective when it comes to human performance. I even asked Bob to write the foreword of my most recent book. Their 5 Moments of Need framework enables direct alignment to real-time needs of workers. The moments of need are: 1. New (When learning something for the first time) 2. More (When there's a need to deepen or expand knowledge or skills) 3. Apply (When performing a task or applying knowledge in real situations) 4. Solve (When encountering a problem or unexpected challenge) 5. Change (When adapting to change such as a new process, tool, or an organizational shift) When learning is designed against these moments of need, job performance not only becomes more effective, but the worker gets more done quicker and with minimal disruption and frustration. By addressing these moments effectively, you can optimize learning outcomes and drive tangible results.
·linkedin.com·
5 Moments of Need framework
𝗪𝗲 𝗻𝗲𝗲𝗱 𝘁𝗼 𝗺𝗼𝘃𝗲 𝗯𝗲𝘆𝗼𝗻𝗱 𝗰𝗮𝗹𝗹𝗶𝗻𝗴 𝗲𝘃𝗲𝗿𝘆𝘁𝗵𝗶𝗻𝗴 𝗮𝗻 “𝗟𝗟𝗠.” ⬇️
𝗪𝗲 𝗻𝗲𝗲𝗱 𝘁𝗼 𝗺𝗼𝘃𝗲 𝗯𝗲𝘆𝗼𝗻𝗱 𝗰𝗮𝗹𝗹𝗶𝗻𝗴 𝗲𝘃𝗲𝗿𝘆𝘁𝗵𝗶𝗻𝗴 𝗮𝗻 “𝗟𝗟𝗠.” ⬇️
In 2025, the AI landscape has evolved far beyond just large language models. Knowing which model to use for your specific use case — and how — is becoming a strategic advantage. Let’s break down the 8 most important model types and what they’re actually built to do: ⬇️ 1. 𝗟𝗟𝗠 – 𝗟𝗮𝗿𝗴𝗲 𝗟𝗮𝗻𝗴𝘂𝗮𝗴𝗲 𝗠𝗼𝗱𝗲𝗹 → Your ChatGPT-style model. Handles text, predicts the next token, and powers 90% of GenAI hype. 🛠 Use case: content, code, convos. 2. 𝗟𝗖𝗠 – 𝗟𝗮𝘁𝗲𝗻𝘁 𝗖𝗼𝗻𝘀𝗶𝘀𝘁𝗲𝗻𝗰𝘆 𝗠𝗼𝗱𝗲𝗹 → Lightweight, diffusion-style models. Fast, quantized, and efficient — perfect for real-time or edge deployment. 🛠 Use case: image generation, optimized inference. 3. 𝗟𝗔𝗠 – 𝗟𝗮𝗻𝗴𝘂𝗮𝗴𝗲 𝗔𝗰𝘁𝗶𝗼𝗻 𝗠𝗼𝗱𝗲𝗹 → Where LLM meets planning. Adds memory, task breakdown, and intent recognition. 🛠 Use case: AI agents, tool use, step-by-step execution. 4. 𝗠𝗼𝗘 – 𝗠𝗶𝘅𝘁𝘂𝗿𝗲 𝗼𝗳 𝗘𝘅𝗽𝗲𝗿𝘁𝘀 → One model, many minds. Routes input to the right “expert” model slice — dynamic, scalable, efficient. 🛠 Use case: high-performance model serving at low compute cost. 5. 𝗩𝗟𝗠 – 𝗩𝗶𝘀𝗶𝗼𝗻 𝗟𝗮𝗻𝗴𝘂𝗮𝗴𝗲 𝗠𝗼𝗱𝗲𝗹 → Multimodal beast. Combines image + text understanding via shared embeddings. 🛠 Use case: Gemini, GPT-4o, search, robotics, assistive tech. 6. 𝗦𝗟𝗠 – 𝗦𝗺𝗮𝗹𝗹 𝗟𝗮𝗻𝗴𝘂𝗮𝗴𝗲 𝗠𝗼𝗱𝗲𝗹 → Tiny but mighty. Designed for edge use, fast inference, low latency, efficient memory. 🛠 Use case: on-device AI, chatbots, privacy-first GenAI. 7. 𝗠𝗟𝗠 – 𝗠𝗮𝘀𝗸𝗲𝗱 𝗟𝗮𝗻𝗴𝘂𝗮𝗴𝗲 𝗠𝗼𝗱𝗲𝗹 → The OG foundation model. Predicts masked tokens using bidirectional context. 🛠 Use case: search, classification, embeddings, pretraining. 8. 𝗦𝗔𝗠 – 𝗦𝗲𝗴𝗺𝗲𝗻𝘁 𝗔𝗻𝘆𝘁𝗵𝗶𝗻𝗴 𝗠𝗼𝗱𝗲𝗹 → Vision model for pixel-level understanding. Highlights, segments, and understands *everything* in an image. 🛠 Use case: medical imaging, AR, robotics, visual agents. Understanding these distinctions is essential for selecting the right model architecture for specific applications, enabling more effective, scalable, and contextually appropriate AI interactions. While these are some of the most prominent specialized AI models, there are many more emerging across language, vision, speech, and robotics — each optimized for specific tasks and domains. LLM, VLM, MoE, SLM, LCM → GenAI LAM, MLM, SAM → Not classic GenAI, but critical building blocks for AI agents, reasoning, and multimodal systems 𝗜 𝗲𝘅𝗽𝗹𝗼𝗿𝗲 𝘁𝗵𝗲𝘀𝗲 𝗱𝗲𝘃𝗲𝗹𝗼𝗽𝗺𝗲𝗻𝘁𝘀 — 𝗮𝗻𝗱 𝘄𝗵𝗮𝘁 𝘁𝗵𝗲𝘆 𝗺𝗲𝗮𝗻 𝗳𝗼𝗿 𝗿𝗲𝗮𝗹-𝘄𝗼𝗿𝗹𝗱 𝘂𝘀𝗲 𝗰𝗮𝘀𝗲𝘀 — 𝗶𝗻 𝗺𝘆 𝘄𝗲𝗲𝗸𝗹𝘆 𝗻𝗲𝘄𝘀𝗹𝗲𝘁𝘁𝗲𝗿. 𝗬𝗼𝘂 𝗰𝗮𝗻 𝘀𝘂𝗯𝘀𝗰𝗿𝗶𝗯𝗲 𝗵𝗲𝗿𝗲 𝗳𝗼𝗿 𝗳𝗿𝗲𝗲: https://lnkd.in/dbf74Y9E Kudos for the graphic goes to Generative AI ! | 45 comments on LinkedIn
·linkedin.com·
𝗪𝗲 𝗻𝗲𝗲𝗱 𝘁𝗼 𝗺𝗼𝘃𝗲 𝗯𝗲𝘆𝗼𝗻𝗱 𝗰𝗮𝗹𝗹𝗶𝗻𝗴 𝗲𝘃𝗲𝗿𝘆𝘁𝗵𝗶𝗻𝗴 𝗮𝗻 “𝗟𝗟𝗠.” ⬇️
Posten | LinkedIn
Posten | LinkedIn
Welche Interventionen können menschliches Verhalten wirksam verändern? Die Meta-Analyse von Albarracín et al. (2024) ist eine Meta-Analysen von Meta-Analysen. 147 Meta-Analysen wurden zusammengefasst. Krass. Das Paper ist 106 Seiten lang und ein echtes Brett. Die Kolleg:innen haben über viele verschiedene Bereiche (z. B. Gesundheits- und Organisationsverhalten) hinweg untersucht, was das Verhalten von Menschen verändern kann. Die Ergebnisse zeigen meiner Interpretation nach: - es gibt keinen Interventionsbereich mit starken Effekten. Wir müssen demütig bleiben. Das Verhalten von Menschen zu beeinflussen, bleibt schwierig. Vielleicht ist das auch gut so. - es existieren sowohl strukturelle als auch individuelle Interventionen, die erfolgreich sind. Mit einem Fokus auf nur "structure first" oder nur "people first" verschenkt man viel Potential. - Menschen mit Wissen zu versorgen und hoffen, dass sie durch Einsicht ihr Verhalten verändern, bringt eher nichts. - Sanktionen zeigen ebenfalls zu vernachlässigende Effekte - nahezu keinen Verhaltenseffekt haben im Schnitt auch Mindsetinterventionen (beliefs) - mittelstarke Effekte zeigt die Bereitstellung des Zugangs zu Ressourcen, die für das Zielverhalten wichtig sind - auch wirksam sind Interventionen, die auf Gewohnheiten abzielen. Also solche, die Verhaltensgewohnheiten etablieren oder sie verändern. - zumindest kleine Effekte bieten soziale Unterstützung, soziale Normen, Verhaltenstrainings und die Arbeit an und mit Emotionen. Das sind natürlich "nur" Mittlerwerte von Mittelwerten aber das Studienfundament ist echt der Hammer. Was könnte das für die Verhaltensveränderungen in Organisationen bedeuten? Gebt den Menschen Zugang zu Ressourcen und unterstützt sie bei Veränderungen. Versucht an den Gewohnheiten zu arbeiten und trainiert Verhalten statt Wissen. Da vieles ein bisschen wirkt, braucht man wohl viele unterschiedliche Ansätze, um größere Effekte zu erreichen. Die immer wieder gestellte Frage Mensch oder Organisation ist nicht zielführend. Strukturen und Menschen gehören gemeinsam gedacht und bearbeitet. Die Studie ist frei verfügbar. Bei Interesse und Nachfragen gerne mal in die Studie reinschauen. Albarracín, D., Fayaz-Farkhad, B., & Granados Samayoa, J. A. (2024). Determinants of behaviour and their efficacy as targets of behavioural change interventions. Nature Reviews Psychology, 3(6), 377-392. #Verhalten #Macht #Transformation #Entwicklung | 175 Kommentare auf LinkedIn
·linkedin.com·
Posten | LinkedIn
𝗥𝗲𝗶𝗰𝗵𝘄𝗲𝗶𝘁𝗲𝗻-𝗞.𝗢. 𝗳ü𝗿 𝘃𝗶𝗲𝗹𝗲 𝗪𝗲𝗯𝘀𝗶𝘁𝗲𝘀. Erst wandern Suchanfragen von Google zu ChatGPT - jetzt beantwortet sie Google direkt in den AI-Overviews.
𝗥𝗲𝗶𝗰𝗵𝘄𝗲𝗶𝘁𝗲𝗻-𝗞.𝗢. 𝗳ü𝗿 𝘃𝗶𝗲𝗹𝗲 𝗪𝗲𝗯𝘀𝗶𝘁𝗲𝘀. Erst wandern Suchanfragen von Google zu ChatGPT - jetzt beantwortet sie Google direkt in den AI-Overviews.
🚨 Studien zeigen bereits hohe Traffic-Rückgänge.   Was können Redakteure und Publisher tun?   👊 Deshalb bin ich mit Matthäus Michalik in den Podcast-Ring gestiegen:   Wir haben 2 Folgen aufgenommen: 𝗚𝗘𝗢 𝘀𝘁𝗮𝘁𝘁 𝗦𝗘𝗢 & 𝗪𝗶𝗲 𝗽𝗹𝗮𝘁𝘇𝗶𝗲𝗿𝗲𝗻 𝘄𝗶𝗿 𝘂𝗻𝘀 𝗶𝗻 𝗱𝗲𝗻 𝗔𝗜-𝗢𝘃𝗲𝗿𝘃𝗶𝗲𝘄?   Als Teaser für euch: 4️⃣ Sofort-Tipps für GEO (Generative Engine Optimization) 1. Autorität & Vertrauen belegen 🔸 Quellen, Zitate und fachliche Referenzen explizit nennen. 🔸Ergebnis: bis zu +40 % höhere Wahrscheinlichkeit, in KI-Antworten zitiert zu werden. 2. Zahlen sprechen lassen 🔸Statistiken, Studien-Daten und eigene Benchmarks einbauen. 🔸KI-Modelle gewichten quantitative Infos stärker → +30 % Relevanz-Boost. 3. Klare Struktur, einfache Sprache 🔸Kurze Absätze, Bullet-Points, FAQs, sprechende Zwischen­überschriften. 🔸Erleichtert Parsing durch LLMs und erhöht die Chance auf direkte Übernahme. 4. Gezielter Fachwort-Einsatz 🔸Relevante Terminologie und Branchen-Jargon bewusst einstreuen. 🔸Signalisiert Expertise und verbessert das Matching für spezifische Nutzer­anfragen. ‼️ Kurzformel: Autorität + Daten + Klarheit + Terminologie = Sichtbarkeit Chat-Antworten.   𝗦𝗶𝗰𝗵𝘁𝗯𝗮𝗿𝗸𝗲𝗶𝘁 𝗶𝗻 𝗔𝗜 𝗢𝘃𝗲𝗿𝘃𝗶𝗲𝘄𝘀 – 𝗱𝗮𝘀 𝗺𝘂𝘀𝘀𝘁 𝗱𝘂 𝗯𝗲𝗮𝗰𝗵𝘁𝗲𝗻 🔸Grundvoraussetzung: Deine Seite muss im Google-Index stehen und bereits ein gewisses Vertrauensniveau besitzen. Dann gilt: 🔸Hochwertige, faktenbasierte Inhalte: präzise, recherchiert, aktuell. 🔸Klare Struktur: H-Überschriften, Listen, Tabellen → erleichtert Parsing. 🔸Strukturierte Daten (Schema.org): zeigt der KI, was welche Bedeutung hat. 🔸UX & Performance: schnelle Ladezeiten, sauberes Mobile-Design. 🔸E-E-A-T pflegen: Expertise, Erfahrung, Autorität, Vertrauen kontinuierlich belegen (Autoren­profile, Quellen, Backlinks). 𝟴 𝗣𝗿𝗮𝘅𝗶𝘀-𝗧𝗶𝗽𝗽𝘀 𝗳ü𝗿 𝗱𝗶𝗲 𝗣𝗼𝘀𝘁-𝗦𝗘𝗢-Ä𝗿𝗮 ✔️ Qualität vor Quantität – fewer, deeper pieces mit klarer Expertise. ✔️Struktur first – H-Tags, Bullet-Points, FAQ-Blöcke, Schema. ✔️User Experience optimieren – Speed, Navigation, mobile UX. ✔️Mehrwert über die KI hinaus – eigene Daten, Cases, Meinungen. ✔️Traffic-Quellen streuen – Social, E-Mail, Communities, Partnerschaften. ✔️Monitoring & Anpassung – beobachte, welche Seiten in AI Overviews landen, und iteriere. ✔️Multimedial denken – Videos, Podcasts, Infografiken ergänzen Text. ✔️E-E-A-T kontinuierlich stärken – Fachautor:innen, Referenzen, Reviews, Backlinks. 𝗞𝘂𝗿𝘇­𝗳𝗼𝗿𝗺𝗲𝗹: Qualität + Struktur + Mehrwert + Vertrauen + Channel-Mix = langfristige Sichtbarkeit – auch in der KI-Suche. ❓ Wie geht ihr den Battle um Sichtbarkeit und Traffic an? Lasst uns diskutieren. 👇 | 12 Kommentare auf LinkedIn
·linkedin.com·
𝗥𝗲𝗶𝗰𝗵𝘄𝗲𝗶𝘁𝗲𝗻-𝗞.𝗢. 𝗳ü𝗿 𝘃𝗶𝗲𝗹𝗲 𝗪𝗲𝗯𝘀𝗶𝘁𝗲𝘀. Erst wandern Suchanfragen von Google zu ChatGPT - jetzt beantwortet sie Google direkt in den AI-Overviews.
Hugging Face 𝗷𝘂𝘀𝘁 𝗱𝗿𝗼𝗽𝗽𝗲𝗱 9 𝗙𝗥𝗘𝗘 𝗔𝗜 𝗰𝗼𝘂𝗿𝘀𝗲𝘀! If…
Hugging Face 𝗷𝘂𝘀𝘁 𝗱𝗿𝗼𝗽𝗽𝗲𝗱 9 𝗙𝗥𝗘𝗘 𝗔𝗜 𝗰𝗼𝘂𝗿𝘀𝗲𝘀! If…
Hugging Face 𝗷𝘂𝘀𝘁 𝗱𝗿𝗼𝗽𝗽𝗲𝗱 9 𝗙𝗥𝗘𝗘 𝗔𝗜 𝗰𝗼𝘂𝗿𝘀𝗲𝘀! If you’re trying to level up or pivot into AI — this is pure gold. 𝗔𝗹𝗹 OPEN. 𝗔𝗹𝗹 FREE. 𝗔𝗹𝗹 expert thaugt. Here’s what’s inside (with links): ⬇️ 1. 𝗟𝗟𝗠 𝗖𝗼𝘂𝗿𝘀𝗲 Master large language models fast. Train, fine-tune, deploy with Transformers. → https://lnkd.in/dcCMCs96 2. 𝗔𝗜 𝗔𝗴𝗲𝗻𝘁𝘀 𝗖𝗼𝘂𝗿𝘀𝗲 Build multi-step reasoning agents with LangChain + HuggingFace. → https://lnkd.in/dJD3QRuT 3. 𝗗𝗲𝗲𝗽 𝗥𝗟 𝗖𝗼𝘂𝗿𝘀𝗲 Teach AI to learn like a human. Reward-based decision-making in real environments. → https://lnkd.in/d8JuRvn8 4. 𝗖𝗼𝗺𝗽𝘂𝘁𝗲𝗿 𝗩𝗶𝘀𝗶𝗼𝗻 𝗖𝗼𝘂𝗿𝘀𝗲 Image classification, segmentation, object detection — with HF models. https://lnkd.in/dEH8Tx-v 5. 𝗔𝘂𝗱𝗶𝗼 𝗖𝗼𝘂𝗿𝘀𝗲 Turn sound into signal. Voice recognition, music tagging, audio generation. → https://lnkd.in/dZtkA3sw 6. 𝗠𝗟 𝗳𝗼𝗿 𝗚𝗮𝗺𝗲𝘀 𝗖𝗼𝘂𝗿𝘀𝗲 AI-powered game design: NPCs, logic, procedural generation. → https://lnkd.in/d4RhU6pz 7. 𝗠𝗟 𝗳𝗼𝗿 3𝗗 𝗖𝗼𝘂𝗿𝘀𝗲 Work with point clouds, meshes, and 3D data in ML. → https://lnkd.in/dU8T8BPw 8. 𝗗𝗶𝗳𝗳𝘂𝘀𝗶𝗼𝗻 𝗠𝗼𝗱𝗲𝗹𝘀 𝗖𝗼𝘂𝗿𝘀𝗲 The tech behind DALL·E and Stable Diffusion. Generate visuals from noise — step by step. → https://lnkd.in/dFwN_idt 9. 𝗢𝗽𝗲𝗻-𝗦𝗼𝘂𝗿𝗰𝗲 𝗔𝗜 𝗖𝗼𝗼𝗸𝗯𝗼𝗼𝗸 Not a course — a growing library of real-world AI notebooks. Copy, remix, and build. → https://lnkd.in/dQ5BXvSz There’s no excuse left. Save this. Study it. Build. Share this with your network to help them level up! ♻️ Which one will you start with? | 16 comments on LinkedIn
·linkedin.com·
Hugging Face 𝗷𝘂𝘀𝘁 𝗱𝗿𝗼𝗽𝗽𝗲𝗱 9 𝗙𝗥𝗘𝗘 𝗔𝗜 𝗰𝗼𝘂𝗿𝘀𝗲𝘀! If…
Wenn Du nochmal bei 0 starten könntest, wie würdest du eine Daten- und KI-Organisation aufbauen?
Wenn Du nochmal bei 0 starten könntest, wie würdest du eine Daten- und KI-Organisation aufbauen?
Genau das wollte ich von Claudia Pohlink wissen, die eine beeindruckende Karriere in der Daten- und KI-Welt bei Telekom, Deutsche Bahn und FIEGE hingelegt hat. Also, wie sieht der Anti-Hype Blueprint aus? 𝟭. 𝗦𝘁𝗮𝗺𝗺𝗱𝗮𝘁𝗲𝗻 𝗱𝗲𝗳𝗶𝗻𝗶𝗲𝗿𝗲𝗻 𝘂𝗻𝗱 𝘀𝘁𝗿𝘂𝗸𝘁𝘂𝗿𝗶𝗲𝗿𝗲𝗻 Starte mit der Definition deiner Kerndomänen und Stammdaten. Bestimme führende Systeme für jede Datendomäne, bevor du Tools auswählst. Dies schafft ein stabiles Fundament für alle KI-Aktivitäten. 𝟮. 𝗘𝗿𝘀𝘁𝗲 𝗘𝗿𝗳𝗼𝗹𝗴𝘀𝗴𝗲𝘀𝗰𝗵𝗶𝗰𝗵𝘁𝗲 𝘀𝗰𝗵𝗿𝗲𝗶𝗯𝗲𝗻 Identifiziere einen ersten Use Case, zum Beispiel mit dem Controlling-Bereich, wo bereits Datenaffinität besteht. Zeige schnelle Erfolge, um Management-Support zu gewinnen. 𝟯. 𝗗𝗮𝘀 𝟯-𝗛𝗮̈𝘂𝘀𝗲𝗿-𝗠𝗼𝗱𝗲𝗹𝗹 𝗶𝗺𝗽𝗹𝗲𝗺𝗲𝗻𝘁𝗶𝗲𝗿𝗲𝗻 • House of Data: Grundlagen, Governance, Architektur • House of AI: Use Cases, Data Scientists, Engineers • House of 3C: Change, Communication, Community Diese 3 Bereiche sollten zu gleichen Teilen aufgebaut werden. Keiner kann ohne den anderen für nachhaltige Daten- und KI-Implementierung. Die Leads sollten zu Beginn intern aufgebaut werden, extern können operative Ressourcen zugekauft werden. 𝟰. 𝗕𝗮𝗹𝗮𝗻𝗰𝗲 𝘇𝘄𝗶𝘀𝗰𝗵𝗲𝗻 𝘇𝗲𝗻𝘁𝗿𝗮𝗹 𝘂𝗻𝗱 𝗱𝗲𝘇𝗲𝗻𝘁𝗿𝗮𝗹 𝗳𝗶𝗻𝗱𝗲𝗻 Etabliere zentrale Standards und Koordination, befähige aber gleichzeitig dezentrale Teams durch Multiplikatoren-Ideen wie KI-Awards, Schulungen und Hackathons. Laut Claudia ist diese Balance eine der größten Herausforderungen in der Umsetzung. 𝟱. 𝗣𝗿𝗮𝗴𝗺𝗮𝘁𝗶𝘀𝗰𝗵 𝗽𝗹𝗮𝗻𝗲𝗻 𝘀𝘁𝗮𝘁𝘁 𝘁𝗵𝗲𝗼𝗿𝗲𝘁𝗶𝘀𝗶𝗲𝗿𝗲𝗻 Erstelle 6-12-Monats-Pläne statt langfristiger Strategien. Dokumentiere Erfahrungen systematisch, auch Misserfolge, und passe deine Pläne regelmäßig an. Ich weiß, wie viele Mittelständler vor der großen Aufgabe stehen, Daten- und KI-Kompetenzen und Strukturen im Unternehmen aufzubauen. Claudia's Erfahrungen sind eine echte Schatzkiste. Ganz ohne Buzzwords, Hype oder Selbstprofilierung. Claudia, 1000 Dank für deine Offenheit und dass du uns an deinen Erfahrungen teilhaben lässt! Was sagt ihr zum Blueprint? | 22 Kommentare auf LinkedIn
·linkedin.com·
Wenn Du nochmal bei 0 starten könntest, wie würdest du eine Daten- und KI-Organisation aufbauen?
𝗪𝗶𝗲 𝗚𝗼𝗼𝗴𝗹𝗲 𝗺𝗶𝘁𝗵𝗶𝗹𝗳𝗲 𝗱𝗲𝗿 𝗞𝗜 𝗱𝗮𝘀 𝗜𝗻𝘁𝗲𝗿𝗻𝗲𝘁 𝗻𝗲𝘂 𝗱𝗲𝗳𝗶𝗻𝗶𝗲𝗿𝘁
𝗪𝗶𝗲 𝗚𝗼𝗼𝗴𝗹𝗲 𝗺𝗶𝘁𝗵𝗶𝗹𝗳𝗲 𝗱𝗲𝗿 𝗞𝗜 𝗱𝗮𝘀 𝗜𝗻𝘁𝗲𝗿𝗻𝗲𝘁 𝗻𝗲𝘂 𝗱𝗲𝗳𝗶𝗻𝗶𝗲𝗿𝘁
Mit seinem AI Mode und dem Agenten Mariner zieht Google eine Plattformschicht über das offene Web. Google transformiert sich von einer klassischen Suchmaschine zum zentralen Marktplatz, Assistenten und Zahlungsdienstleister. Nutzer können künftig Produkte direkt in der Google-Suche finden, vergleichen, kaufen und bezahlen – ohne die Plattform zu verlassen. Diese Entwicklung hat weitreichende Folgen für das gesamte Internet-Ökosystem. Die Auswirkungen treffen nicht nur klassische Online-Händler, sondern auch Marktplatzgiganten wie Amazon, Verlage, Übersetzungsdienste wie DeepL, Reservierungsanbieter wie OpenTable, Buchungsseiten wie Ticketmaster oder Sprachschulen wie Duolingo. Wer weiterhin sichtbar und relevant bleiben will, muss sich auf die neuen Spielregeln einstellen, in KI-Overviews und Shopping-Graphen präsent sein und seine Inhalte für KI-Systeme optimieren. Denn OpenAI baut etwas Ähnliches auf und auch Amazon bewegt sich in diese Richtung. Der Wettstreit der Plattformen ist damit endgültig im KI-Zeitalter angekommen. Weiterlesen auf F.A.Z. PRO Digitalwirtschaft (€) ▶︎ https://lnkd.in/e-r8k7up€ Frankfurter Allgemeine Zeitung
·linkedin.com·
𝗪𝗶𝗲 𝗚𝗼𝗼𝗴𝗹𝗲 𝗺𝗶𝘁𝗵𝗶𝗹𝗳𝗲 𝗱𝗲𝗿 𝗞𝗜 𝗱𝗮𝘀 𝗜𝗻𝘁𝗲𝗿𝗻𝗲𝘁 𝗻𝗲𝘂 𝗱𝗲𝗳𝗶𝗻𝗶𝗲𝗿𝘁
LEGO hat externe Trainer und Berater rausgeschmissen und seine Führungskräfte zu Coaches auf drei Ebenen ausgebildet, die eine nachhaltige #Lernkultur schaffen.
LEGO hat externe Trainer und Berater rausgeschmissen und seine Führungskräfte zu Coaches auf drei Ebenen ausgebildet, die eine nachhaltige #Lernkultur schaffen.
Erfahrungswerte aus der aktuellen MIT Sloan Management Review (Bahnhofsbuchhandel). „Gehe langsam, wenn Du es eilig hast.“ Diese Erkenntnis war es, die zwei weltbekannte dänische Unternehmen – LEGO und VELUX (Dachfenster) – dazu brachte, ihren Umgang mit Veränderung zu überdenken. Inmitten digitaler Umbrüche und wachsender Komplexität stießen beide an die Grenzen ihres bisherigen Erfolgsmodells: Was früher als effizient galt, erwies sich plötzlich als zu starr und zu oberflächlich. Workshops sind oft Strohfeuer. Externe Berater kamen und gingen. Also die Erkenntnis: Veränderung muss von innen kommen – durch Führung. LEGO und VELUX machten etwas Ungewöhnliches: Sie bildeten ihre Führungskräfte nicht zu besseren Projektmanagern aus, sondern zu besseren Frage-Stellern. Sie machten sie zu Coaches. Zu Lernbegleitern ihrer eigenen Mitarbeitenden. Zu Menschen, die nicht mit Antworten glänzen, sondern mit klugen Fragen Orientierung geben. ⸻ Element 1: Probleme neu denken – mit A3 Beide Unternehmen führten die A3-Methode von Toyota ein – ein strukturiertes Denkformat, das ein Problem auf einer einzigen DIN-A3-Seite abbildet. Klar. Visuell. Jeder arbeitet damit. Das dazugehörige Modell: 🍍 Finding: Das richtige Problem entdecken. 🍍 Facing: Sich ihm mutig stellen. 🍍 Framing: Die eigentliche Herausforderung erkennen. 🍍 Forming: Lösungen entwickeln. Diese vier Phasen führten zu einem neuen Problembewusstsein: Nicht Symptome bekämpfen. Ursachen verstehen. Nicht sofort handeln. Erst gemeinsam denken. Teams lernten langsamer und nachhaltiger. ⸻ Element 2: Lernen im Kollektiv – Gruppen-Coaching als Mikrokosmos Individuelles Lernen reicht nicht. Also bauten LEGO und VELUX einen Raum für kollektive Reflexion: Gruppencoaching. Dort trafen sich Teams aus Führungskräften in festen Rollen: ein Moderator, eine Fallgeberin, ein Coach und stille Beobachter. In 30 Minuten wurde ein reales Problem durchdacht – mit klugen Fragen, ehrlichen Perspektiven, geteilten Einsichten. Diese Sessions stärkten nicht nur die Problemlösefähigkeiten – sie schufen psychologische Sicherheit. Menschen konnten sich verletzlich zeigen. Fehler besprechen. Ideen testen. Und gemeinsam wachsen. ⸻ Element 3: Coaching-Hierarchie – Lernen strukturell verankern Um all das nachhaltig zu machen, entwickelten beide Unternehmen eine dreistufige Coaching-Struktur: 🍓 First Coach: Die direkte Führungskraft begleitet das tägliche Lernen. 🍓 Second Coach: Bereichsleiter coachen die Coaches – und verbessern deren Fragekompetenz. 🍓 Third Coach: Das Top-Management reflektiert die Metaebene und sichert strategische Ausrichtung. So wurde Innovation nicht zur Aufgabe von Externen, sondern zur DNA der Organisation. Lernen wurde nicht delegiert – sondern verkörpert. Erfordert erst Zeit und Geduld, zahlt sich langfristig jedoch aus. | 96 Kommentare auf LinkedIn
·linkedin.com·
LEGO hat externe Trainer und Berater rausgeschmissen und seine Führungskräfte zu Coaches auf drei Ebenen ausgebildet, die eine nachhaltige #Lernkultur schaffen.
Beyond Analysis Paralysis: How Learning, Not Certainty, Drives Performance (Post 2 of 3)
Beyond Analysis Paralysis: How Learning, Not Certainty, Drives Performance (Post 2 of 3)
“In times of change, the learners inherit the earth, while the learned find themselves beautifully equipped for a world that no longer exists.” – Eric Hoffer In a world of swirling uncertainty, waiting for perfect information is the fastest path to irrelevance.
·linkedin.com·
Beyond Analysis Paralysis: How Learning, Not Certainty, Drives Performance (Post 2 of 3)
Beyond Analysis Paralysis: How Learning, Not Certainty, Drives Performance…
Beyond Analysis Paralysis: How Learning, Not Certainty, Drives Performance…
Are you optimizing for learning, or just chasing certainty? In today’s world, waiting for perfect information is the fastest way to fall behind. True leadership isn’t about always having the answers; it’s about building teams and systems that learn faster than the world changes. In this latest post (Part 2 of 3), I explore why learning, not knowing, is the real driver of performance. Neuroscience shows that in uncertain times, our ability to adapt and learn together is what sets successful organizations apart. How does your organization balance “doing” and “learning”? Are you cultivating a culture where learning is the soil, not just a one-off event? I’d love to hear your experiences and strategies in the comments! Let’s build a conversation around how we can all adapt, grow, and thrive in uncertainty. #Leadership #OrganizationalLearning #ContinuousImprovement #ChangeManagement #FutureOfWork #LearningCulture #Adaptability #HumanCorps | 19 comments on LinkedIn
·linkedin.com·
Beyond Analysis Paralysis: How Learning, Not Certainty, Drives Performance…
In a new paper, British philosopher Andy Clark (author of the 2003 book Natural Born Cyborgs, see comment below) offers a rebuttal to the pervasive anxiety surrounding new technologies, particularly generative AI, by reframing the nature of human cognition.
In a new paper, British philosopher Andy Clark (author of the 2003 book Natural Born Cyborgs, see comment below) offers a rebuttal to the pervasive anxiety surrounding new technologies, particularly generative AI, by reframing the nature of human cognition.
In a new paper, British philosopher Andy Clark (author of the 2003 book Natural Born Cyborgs, see comment below) offers a rebuttal to the pervasive anxiety surrounding new technologies, particularly generative AI, by reframing the nature of human cognition. He begins by acknowledging familiar concerns: that GPS erodes our spatial memory, search engines inflate our sense of knowledge, and tools like ChatGPT might diminish creativity or encourage intellectual laziness. These fears, Clark observes, mirror ancient worries, like Plato’s warning that writing would weaken memory, and stem from a deeply ingrained but flawed assumption: the idea that the mind is confined to the biological brain. Clark challenges this perspective with his extended mind thesis, arguing that humans have always been cognitive hybrids, seamlessly integrating external tools into our thinking processes. From the gestures we use to offload mental effort to the scribbled notes that help us untangle complex problems, our cognition has never been limited to what happens inside our skulls. This perspective transforms the debate about AI from a zero-sum game, where technology is seen as replacing human abilities, into a discussion about how we distribute cognitive labour across a network of biological and technological resources. Recent advances in neuroscience lend weight to this view. Theories like predictive processing suggest that the brain is fundamentally geared toward minimising uncertainty by engaging with the world around it. Whether probing a river’s depth with a stick or querying ChatGPT to clarify an idea, the brain doesn’t distinguish between internal and external problem-solving—it simply seeks the most efficient path to resolution. This fluid interplay between mind and tool has shaped human history, from the invention of stone tools to the design of modern cities, each innovation redistributing cognitive tasks and expanding what we can achieve. Generative AI, in Clark’s view, is the latest chapter in this story. While critics warn that it might stifle originality or turn us into passive curators of machine-generated content, evidence suggests a more nuanced reality. The key, Clark argues, lies in how we integrate these technologies into our cognitive ecosystems. https://lnkd.in/gUmxE57w | 41 comments on LinkedIn
·linkedin.com·
In a new paper, British philosopher Andy Clark (author of the 2003 book Natural Born Cyborgs, see comment below) offers a rebuttal to the pervasive anxiety surrounding new technologies, particularly generative AI, by reframing the nature of human cognition.
𝗔𝘁 𝗜/𝗢 2025, Google 𝘀𝗵𝗼𝘄𝗲𝗱 𝘂𝘀 𝘄𝗵𝗮𝘁 𝗔𝗜-𝗳𝗶𝗿𝘀𝘁… | Andreas Horn | 61 comments
𝗔𝘁 𝗜/𝗢 2025, Google 𝘀𝗵𝗼𝘄𝗲𝗱 𝘂𝘀 𝘄𝗵𝗮𝘁 𝗔𝗜-𝗳𝗶𝗿𝘀𝘁… | Andreas Horn | 61 comments
𝗔𝘁 𝗜/𝗢 2025, Google 𝘀𝗵𝗼𝘄𝗲𝗱 𝘂𝘀 𝘄𝗵𝗮𝘁 𝗔𝗜-𝗳𝗶𝗿𝘀𝘁 𝗥𝗘𝗔𝗟𝗟𝗬 𝗺𝗲𝗮𝗻𝘀. 𝗛𝗲𝗿𝗲’𝘀 𝘄𝗵𝗮𝘁 𝗚𝗼𝗼𝗴𝗹𝗲 𝗮𝗻𝗻𝗼𝘂𝗻𝗰𝗲𝗱: ⬇️ The company's flagship developer event Google I/O 2025 was held last night in Mountain View, California. 𝗧𝗟𝗗𝗥: Google is turning Gemini into the AI operating system for everything — with agents now embedded across Search, Chrome, Workspace, Android, and more. If you don’t have time for the full event, here’s a curated 𝘀𝘂𝗽𝗲𝗿𝗰𝘂𝘁 of the highlights that really matter. 𝗞𝗲𝘆 𝗺𝗼𝗺𝗲𝗻𝘁𝘀 𝗳𝗿𝗼𝗺 𝗚𝗼𝗼𝗴𝗹𝗲 𝗜/𝗢 𝟮𝟬𝟮𝟱: 0:00 𝗜𝗻𝘁𝗿𝗼 – AI-native from the ground up 0:11 𝗚𝗲𝗺𝗶𝗻𝗶 𝗽𝗹𝗮𝘆𝘀 𝗮 𝗣𝗼𝗸𝗲𝗺𝗼𝗻 𝗴𝗮𝗺𝗲 — memory, reasoning, and code 0:30 𝗚𝗼𝗼𝗴𝗹𝗲 𝗕𝗲𝗮𝗺 – Real-time 3D video chat with AI 1:08 𝗚𝗼𝗼𝗴𝗹𝗲 𝗠𝗲𝗲𝘁 – Speech-to-speech translation, live 1:27 𝗣𝗿𝗼𝗷𝗲𝗰𝘁 𝗠𝗮𝗿𝗶𝗻𝗲𝗿 – AI agents that book, plan, filter, decide 2:07 𝗣𝗲𝗿𝘀𝗼𝗻𝗮𝗹 𝗖𝗼𝗻𝘁𝗲𝘅𝘁 – Gemini gets memory and task awareness 2:40 𝗚𝗲𝗺𝗶𝗻𝗶 𝟮.𝟱 𝗣𝗿𝗼 + 𝗙𝗹𝗮𝘀𝗵 – New SOTA models, LMArena leader 4:57 𝗣𝗿𝗼𝗷𝗲𝗰𝘁 𝗔𝘀𝘁𝗿𝗮 – Multimodal, fast-response agent that sees and hears 5:32 𝗔𝗜 𝗠𝗼𝗱𝗲 – Overlay for restaurants, bookings, prices, events 7:10 𝗦𝗵𝗼𝗽𝗽𝗶𝗻𝗴 – Track, compare, and auto-buy with Google Pay 8:34 𝗚𝗲𝗺𝗶𝗻𝗶 𝗟𝗶𝘃𝗲 – Screen sharing + live AI guidance 8:59 𝗗𝗲𝗲𝗽 𝗥𝗲𝘀𝗲𝗮𝗿𝗰𝗵 𝗔𝗴𝗲𝗻𝘁 – Upload files, get insights 9:12 𝗖𝗮𝗻𝘃𝗮𝘀 – Live, collaborative AI whiteboard 9:31 𝗚𝗲𝗺𝗶𝗻𝗶 𝗶𝗻 𝗖𝗵𝗿𝗼𝗺𝗲 – AI understands and acts on any webpage 9:51 𝗜𝗺𝗮𝗴𝗲𝗻 𝟰 – Next-gen image generation 10:23 𝗩𝗲𝗼 𝟯 – Ultra-realistic video model 11:01 𝗟𝘆𝗿𝗶𝗮 𝟮 – AI-powered music composition 11:56 𝗙𝗹𝗼𝘄𝘀 – Multimodal, promptable AI video creation 12:39 𝗔𝗻𝗱𝗿𝗼𝗶𝗱 𝗫𝗥 – AI-first spatial computing 12:57 𝗦𝗮𝗺𝘀𝘂𝗻𝗴 𝗠𝗼𝗼𝗵𝗮𝗻 – Google’s XR headset revealed 13:16 𝗟𝗶𝘃𝗲 𝗴𝗹𝗮𝘀𝘀𝗲𝘀 𝗱𝗲𝗺𝗼 – Gemini + XR = real-time AI overlay Super insightful and forward-looking: Google’s AI strategy just went full stack. Even if some of these projects don’t make it past the prototype stage, the direction is obvious: AI is being integrated into everything. LLMs — Gemini, in this case — are rapidly becoming the new operating system and everything will be powered by AI Agents across all products. Full keynote: https://lnkd.in/dPFFtyZ9 Supercut: https://lnkd.in/d-eBNGjw Enjoy watching! | 61 comments on LinkedIn
·linkedin.com·
𝗔𝘁 𝗜/𝗢 2025, Google 𝘀𝗵𝗼𝘄𝗲𝗱 𝘂𝘀 𝘄𝗵𝗮𝘁 𝗔𝗜-𝗳𝗶𝗿𝘀𝘁… | Andreas Horn | 61 comments
Recent research showed that every 7 months AI doubles the length (in human time taken) of the task they can solve. AI researcher Toby Ord has built on the original study to show that AI success probability declines exponentially with task length, defining model capabilities with a ‘half-life.’
Recent research showed that every 7 months AI doubles the length (in human time taken) of the task they can solve. AI researcher Toby Ord has built on the original study to show that AI success probability declines exponentially with task length, defining model capabilities with a ‘half-life.’
One of the most interesting things about the original research is that it provides a clear metric for measuring AI performance improvement that is not tied to benchmarks that keep on being superceded, needing new benchmarks. We can now rank AI models and agents by their half-life - the time for human tasks for which they achieve 50% success rate. Of course we are usually more interested in models that can achieve 99+% success rates - depending on the task - but the relative consistency of the half life decay means the T50 threshold predicts whatever success rate we aim for, both today, and at future dates if the original trend holds Generally the decay is due to cumulative errors or going off course. But the decay is not always consistent, as there can be subtasks of uneven difficulty, or agents can recover from early mistakes. Interestingly, humans don't follow pure exponential decay curves. Our success rate falls off more slowly over very long tasks, suggesting we have broader context, allowing us to recover from early mistakes. The research was applied to tasks in research or software engineering. The dynamics of this performance evolution may or may not apply to other domains. Certainly, this reframing of assessing the development of AI capabilities and its comparison to human work is a very useful advance to the benchmarking approach.
·linkedin.com·
Recent research showed that every 7 months AI doubles the length (in human time taken) of the task they can solve. AI researcher Toby Ord has built on the original study to show that AI success probability declines exponentially with task length, defining model capabilities with a ‘half-life.’
HR + IT; The Future of Work? That question has been on my mind since I first read about Moderna merging its HR and Tech departments. They are redefining what it means to be a future-ready company.
HR + IT; The Future of Work? That question has been on my mind since I first read about Moderna merging its HR and Tech departments. They are redefining what it means to be a future-ready company.
Here’s what I take away: 🚫 HR is no longer just about people. 🚫 IT is no longer just about systems. ✅ The real value lies in how people and systems interact—seamlessly, intelligently, adaptively. Let’s be honest, most organizations still operate in silos: - HR builds talent and culture - IT builds systems and infrastructure But the future of work is all about integration. What if you make that happen? Think about it: Can you redesign work itself? Not roles. Not org charts. But the actual FLOW of work. Because that’s what Moderna’s doing. They are reimagining how humans and machines co-create value. IBM is doing the same. They use HR AI agents that handle questions, routes issues, and manage HR processes. This isn’t about cutting costs. It’s about building a business that adapts faster to the next disruption. They are building resilience. I recognize that HR and IT both have unique complexities, and in many companies are simply too far apart or too large merge shortly. Still, it still got me thinking. As an HR leader: -> How comfortable are you with data, automation, and AI? -> Could you confidently lead both people strategy and digital infrastructure? -> What would need to change for that answer to be yes? This isn’t a tech conversation. It’s an organization and leadership revolution. The next era of HR won’t be like today's HR at all. It will be integrated, tech-savvy, and central to how business gets done. Time to level up. Are you ready? #futureofwork #hrtech #ai Picture and story credits: Isabelle Bousquette 🙏 | 34 comments on LinkedIn
·linkedin.com·
HR + IT; The Future of Work? That question has been on my mind since I first read about Moderna merging its HR and Tech departments. They are redefining what it means to be a future-ready company.
Research on over 3500 workers points to two outcomes from use of GenAI: immediate performance boosts, and a decrease in motivation and increase in boredom when…
Research on over 3500 workers points to two outcomes from use of GenAI: immediate performance boosts, and a decrease in motivation and increase in boredom when…
switching to non-augmented tasks. It is definitely interesting research, but I am very cautious about the conclusions reached by the authors, partly since they are to a degree contradictory, and also not necessarily generalizable. The authors implicitly criticize AI for removing the “most cognitively demanding parts” of work, implying that this reduces fulfillment. But the outputs and productivity are clearly improved. Are they suggesting workers create inferior output for the sake of engagement? It is worth noting that other recent research points to improved emotion and engaement with genAI collaboration. The emotional impact of genAI collaboration will vary substantially across use cases, especially with the nature of the task, and certainly with the cultural context. It appears the use case here was performance reviews, which is not representative of many other types of cognitive work. The authors also say that AI-assisted tasks reduce users’ sense of control, thus lowering motivation. But they say this sense of control is restored during subsequent solo tasks, even though those are when boredom and disengagement rise. Having said that, for some tasks and work design the issues they raise could be real and substantial. These are the sound remedies they suggest: ➡️Blend AI and Human Contributions: Use gen AI as a foundation for tasks while encouraging humans to personalize, expand, and refine outputs to retain creativity and ownership. ➡️Design Engaging Solo Tasks: Follow AI-supported work with autonomous, creative tasks to help employees stay motivated and exercise their own skills. ➡️Make AI Collaboration Transparent: Clearly communicate AI’s supporting role to preserve employees’ sense of control and fulfillment in their contributions. ➡️Rotate Between Tasks: Alternate between independent and AI-assisted tasks to maintain engagement and productivity throughout the workday. ➡️Train Employees to Use AI Mindfully: Provide training that helps employees critically and strategically integrate AI, strengthening their autonomy and judgment.
·linkedin.com·
Research on over 3500 workers points to two outcomes from use of GenAI: immediate performance boosts, and a decrease in motivation and increase in boredom when…
To stop playing catch-up and stay ahead of AI, we need to form a point of view on the future of work. A POV on FOW, if you will.
To stop playing catch-up and stay ahead of AI, we need to form a point of view on the future of work. A POV on FOW, if you will.
There is a lot of talk about how L&D needs to be proactive, not reactive. But how do we do that when technology is moving so fast? It starts with having a point of view on where the world of work is headed, and then building a bridge to that future. Because if we only make incremental changes from where we are now, we'll likely be playing catch-up for a long time—and risk preparing people for the work of today, not tomorrow. Here are some of the forces I think about a lot these days: 🎓 AI seems to be denting the supply of entry level jobs. What does that mean for the talent pipeline later down the line? And how should we onboard the graduates that *do* get employed so they can add value on top of AI? 📈 AI gets lower performers closer to higher performers (HBS & BCG study), and individuals working with AI match the performance of *teams* without AI (HBS & P&G study). How do we evaluate, recognise and enhance expertise in such a world? 🏁 Vibe coding/marketing/learning/something else, single founder unicorns, service-as-a-software (not software-as-a-service!) and zero latency economy are just some of the predictions that would affect both the nature and pace of work. What support would our people and organisations need to adapt? L&D isn't short on AI tools. What we need is a vision—to imagine how AI will reshape performance, learning, and the world of work at large. And, ultimately, what L&D needs to 𝘣𝘦𝘤𝘰𝘮𝘦 to have a role in it. Nodes #AI #HR #Learning #Talent #FutureOfWork | 12 comments on LinkedIn
·linkedin.com·
To stop playing catch-up and stay ahead of AI, we need to form a point of view on the future of work. A POV on FOW, if you will.
In their “thousand flowers” strategy J&J seeded 900+ GenAI use cases. Using clear metrics they found that 10–15% of these drove 80% of the value, and pivoted to focusing on fewer scalable, high-impact use cases.
In their “thousand flowers” strategy J&J seeded 900+ GenAI use cases. Using clear metrics they found that 10–15% of these drove 80% of the value, and pivoted to focusing on fewer scalable, high-impact use cases.
In my work with boards and exec teams one of the pointed questions is always the degree of focus in AI initiatives. Johnson & Johnson's divergent-convergent strategy is highly instructive. Some commentators have suggested that this means the use case proliferation was a mistake. J&J's CIO doesn't see it like that. "You had to take an iterative approach to say, ‘Where are these technologies useful and where are they not?’... We had the right plan three years ago, but we matured our plan based on three years of understanding,” Leaders cannot know in advance where the value will emerge. The challenge is to select the right scope of experimenation before selecting focus use cases. Another shift was from centralized AI by a board governance to function-specific ownership such as commercial, R&D, and supply chain, enabling better prioritization and faster iteration. Again, these models suit different phases of the AI adoption journey. Most organizations are far earlier than J&J, which has strong maturity. On metrics: "The company is tracking progress in three buckets: first, the ability to successfully deploy and implement use cases; second, how widely they are adopted; and third, the extent to which they deliver on business outcomes." I strongly suspect that they are not using a "win rate" on their use case success. There are similarities to VC portfolios, where a few big wins make all the investments worthwhile. | 12 comments on LinkedIn
·linkedin.com·
In their “thousand flowers” strategy J&J seeded 900+ GenAI use cases. Using clear metrics they found that 10–15% of these drove 80% of the value, and pivoted to focusing on fewer scalable, high-impact use cases.
3.000 KI-Assistenten integriert in alle Teams. Das ist die KI-Reise von… | Felix Schlenther | 12 Kommentare
3.000 KI-Assistenten integriert in alle Teams. Das ist die KI-Reise von… | Felix Schlenther | 12 Kommentare
3.000 KI-Assistenten integriert in alle Teams. Das ist die KI-Reise von Moderna: “It’s hard to convey—within the hype—how much AI is changing things and how much Moderna is using it across the board” Dieses Zitat von Wade Davis, Modernas Head of Digital for Business, zeigt sehr schön wie schwer der allumfassende Wandel von KI zu beschreiben ist. Es sind eben nicht 2 - 3 Use Cases ein ein paar Bereichen. Viel mehr geht es um eine Veränderung der Denk- und Arbeitsweise. Während viele Unternehmen noch zögern, hat Moderna bereits konkrete Schritte unternommen, um KI strategisch zu implementieren: 1. Zusammenlegung von HR und IT unter einer Führung 2. Systematische Analyse aller Arbeitsprozesse 3. Klare Entscheidung: Was macht Mensch & Maschine? 4. Entwicklung von 3.000 spezialisierten KI-Assistenten 5. Integration dieser Assistenten in komplexe Workflows Der taktische Ansatz dahinter ist bemerkenswert: ↳ Nicht einzelne KI-Projekte, sondern eine umfassende Transformation ↳ Keine isolierten Tools, sondern vernetzte Systeme ↳ Kein Fokus auf Stellenabbau, sondern auf Neugestaltung der Arbeit KI-Integration ist keine einmalige Initiative, sondern ein fortlaufender Prozess der Organisationsentwicklung. Moderna zeigt, dass der Erfolg nicht von einzelnen Tools abhängt, sondern von der strategischen Neugestaltung der Arbeit selbst. Genau das ist der Weg, den es zu gehen gilt. | 12 Kommentare auf LinkedIn
·linkedin.com·
3.000 KI-Assistenten integriert in alle Teams. Das ist die KI-Reise von… | Felix Schlenther | 12 Kommentare
Since Covid, L&D teams massively accelerated their use of digital technologies (understandably) and since then the narrative has reflected the industrys hunger to adopt more learning technologies.
Since Covid, L&D teams massively accelerated their use of digital technologies (understandably) and since then the narrative has reflected the industrys hunger to adopt more learning technologies.
We used to rely on each other, but then it went a bit sour. Or did it? AI has helped ramp that up too. The context of work ie hybrid and remote has also driven the need for providing digital learning solutions. So what happened to face to face training? It was the staple of L&D pre-Covid but now it is hardly talked about. Have you seen articles or conference sessions on the topic? Latest research from Hemsley Fraser suggests the in-person training is far from forgotten. Indeed, it is the number one learning approach, according to its survey of 822 L&D, HR and talent practitioners, followed by coaching and virtual instructor-led training. The research shows that there has been a 17% year on year growth in in-person training in the US. According to the research, the learning approaches used by L&D are: ⦿ In-person training 87% ⦿ Coaching 62% ⦿ Virtual instructor-led training 60% ⦿ Free online resources 56% ⦿ Learning hub/portal 54% ⦿ Blended learning 51% The report authors say, "When L&D is expected to not only grow skills but boost engagement and experiences, coming together, when structured effectively, can simply make people feel good. It becomes a strategic tool with benefits beyond training alone." This sentiment is reflected in the latest Fosway Group 9-Grid for Digital Learning. One of its trends is titled "The desire to learn together gains momentum". The report, says: "Amongst all this talk of AI, the desire to actually learn together (with other people) remains, arguably, valued more highly. The need for learning solutions for high-value or large-scale transformation programmes is enduring. The best solutions bring cohorts to learn and work together over time. And maybe unsurprisingly, live events are still an important part of the desired blend, as well as virtual and hybrid approaches, led by experts that can interact in real time with their audience. In-group facilitation and collaboration is another core capability." So what is the reality for L&D teams? Is in-person training evolving to find its place alongside learning technology? And is the in-person experience evolving away from content delivery to focus on the value of people being together, sharing and working and learning collaboratively? 🔗 Read the Hemsley Fraser Learning & Development Impact Survey 2025 https://lnkd.in/e33fuTp2 🔗 Read the 2025 Fosway 9-Grid for Digital Learning https://lnkd.in/ebAbqd_x Picture credit: ElisaRiva https://lnkd.in/epFrUtXd #learninganddevelopment #research | 23 comments on LinkedIn
·linkedin.com·
Since Covid, L&D teams massively accelerated their use of digital technologies (understandably) and since then the narrative has reflected the industrys hunger to adopt more learning technologies.