HardFork

Social media-platforms verliezen rechtszaken over addictive design, en dat verandert mogelijk het hele internet

Open in Readwise →

Hoofdonderwerpen

  • Social media product liability rechtszaken (rechtszaken waarin platforms aansprakelijk worden gesteld voor schade door hun product-ontwerp) — Meta en YouTube verloren zaken in LA en New Mexico, samen honderden miljoenen dollars aan schadevergoeding
  • Section 230 (Amerikaanse wet uit 1996 die platforms beschermt tegen aansprakelijkheid voor wat gebruikers posten) vertoont voor het eerst scheuren — juries accepteren het argument dat design los staat van content
  • Interview met Sebastian Mallaby over zijn nieuwe boek The Infinity Machine over Demis Hassabis en Google DeepMind
  • HatGPT-ronde met onder andere de Claude Code leak, het Axios security-incident (NPM-pakket met 80M downloads per week gehackt door Noord-Korea) en OpenAI die Sora en hun 'adult mode' schrapt

Standpunten Casey & Kevin

Casey is overwegend voor de jury-uitspraken. Zijn redenering: platforms hebben tien jaar lang geweigerd serieus iets te doen aan bekende schade, Congress komt niet tot wetgeving, dus rechtszaken zijn het enige overgebleven mechanisme. Hij vindt het logisch dat 'very large online platforms' (de Europese categorie voor grote platforms met extra verantwoordelijkheden) meer verantwoordelijkheid dragen. Wel maakt hij zich zorgen over het encryptie-argument in de New Mexico zaak — dat end-to-end encryptie (berichten die alleen zender en ontvanger kunnen lezen, niet eens het platform zelf) als 'onveilig voor kinderen' wordt weggezet, vindt hij gevaarlijk.

Kevin is sceptischer over de juridische theorie. Zijn punt: als infinite scroll en autoplay echt mechanisch verslavend zijn zoals nicotine, waarom werkt het dan niet voor Sora of andere kopie-apps? Misschien zit de verslaving meer in de content (de schaal, de personalisatie) dan in het design. Hij vindt het verschil tussen container en inhoud lastig te maken.

AI & Tech nieuws

  • Claude Code harness lekte uit — niet de model weights (de getallen waar het AI-model uit bestaat), maar de 'agentic harness' eromheen (de laag code die de AI laat plannen, tools laat gebruiken en bestanden laat bewerken). Binnen uren hadden mensen het gekloond en op open-source Chinese modellen gezet. Relevant voor vibe coders: dit versnelt de verspreiding van goede agentic coding tools
  • Axios NPM-pakket gehackt (NPM = de package manager voor JavaScript/Node.js waar ook Next.js op draait) — Noord-Koreaanse hackers publiceerden kwaadaardige versies van Axios, dat 80M keer per week wordt gedownload. Check je dependencies
  • Anthropic stelde een modelrelease uit om het eerst met cyber-defenders te delen — eerste keer sinds GPT-2 in 2019 dat een lab zo voorzichtig is
  • Nicholas Carlini (Anthropic security researcher) gaf een talk dat AI-modellen nu bugs vinden in oude code zoals de Linux kernel. Kevin's stelling: vrijwel alle bestaande code moet opnieuw gehard worden
  • OpenAI schrapt Sora en 'adult mode' — consolideren rond enterprise AI en coding, mede omdat Anthropic geld verdient met Claude Code
  • Pew onderzoek 2025: 64% van tieners gebruikt AI-chatbots, 30% dagelijks. Social media gebruik bleef stabiel, dus chatbots komen er bovenop
  • Kalshi (prediction market = beursplatform waar je kunt wedden op uitkomsten van gebeurtenissen) adverteert met 'wij doen geen death markets' en 'geen insider trading' — roept vooral vragen op

Takeaways voor een koffie-ondernemer met AI

  • Security wordt urgenter: als je vibe codet met Next.js/Supabase draai je op npm packages. Het Axios-incident laat zien dat supply chain attacks (kwaadaardige code die via een vertrouwd pakket binnenkomt) nu serieuze realiteit zijn. Check regelmatig welke packages je installeert en overweeg tools zoals npm audit of GitHub Dependabot (bot die automatisch waarschuwt bij kwetsbare dependencies)
  • De Claude Code leak laat zien dat de harness net zo belangrijk is als het model. Voor jou als vibe coder: de tool (Cursor, Claude Code, etc.) die je kiest bepaalt net zoveel als het onderliggende model
  • De juridische verschuiving rond 'design als product' is relevant voor elke ondernemer die AI-features bouwt die gebruikers lang laten hangen. Als je ooit een klant-app of loyalty-systeem bouwt met engagement mechanics, denk na over waar je de grens legt
  • Regulering komt eraan voor AI-chatbots. Als je chatbots inzet richting klanten (denk: koffie-advies bot), houd in de gaten dat de wetgevingskant dezelfde kant op beweegt als bij social media: van 'ongereguleerd' naar 'jury's vinden dat je verantwoordelijk bent'
  • Demis Hassabis-portret is inspirerend voor ondernemers: iemand met een duidelijke missie die jarenlang competitief vasthoudt aan zijn visie, ook binnen een groot moederbedrijf (Google). Het verhaal over Project Mario (DeepMind's poging om los te breken van Google) is een mooie case over hoe bedrijfscultuur en autonomie werken onder druk
  • Sebastian Mallaby's boek The Infinity Machine staat op de leeslijst als je dieper in de AI-wereld wilt duiken

Gerelateerd