[…]

Mit dem Urteil werde anerkannt, “dass die Tech-Unternehmen mit ihren süchtig machenden Algorithmen das Leben ihrer Nutzerinnen und Nutzer ruinieren”, sagte Reichinnek am Donnerstag der Nachrichtenagentur AFP. Notwendig sei nun “ein vollständiges Verbot genau dieser Algorithmen”. Verstöße müssten mit empfindlichen Geldstrafen geahndet werden.

[…]

  • CyberEgg@discuss.tchncs.de
    link
    fedilink
    arrow-up
    1
    ·
    4 days ago

    Es ist nicht deutlich, weil der Nirvana-Fehlschluss hier, so wie du ihn beschreibst, nicht zutrifft. Du schlägst keine unperfekte, aber irgendwie im Bereich des Umsetzbaren alternativlose Lösung vor. Dein Vorschlag wird nicht abgelehnt, weil er nicht 100% ist.

    Ich bezweifle zum Einen die Umsetzbarkeit und zum anderen die Wirksamkeit deines Vorschlags, und obendrauf gibt es Alternativvorschläge, zum Beispiel den, der hier im Artikel genannt und von Heidi Reichinnek gefordert wird. Den du ablehnst, weil er nicht 100%-ig dein Ziel erfüllt (zumindest lese ich deine Kommentare so, berichtige mich gerne, sollte ich dich falsch verstehen).

    • Hapankaali@lemmy.world
      link
      fedilink
      arrow-up
      1
      ·
      4 days ago

      Es ist nicht deutlich, weil der Nirvana-Fehlschluss hier, so wie du ihn beschreibst, nicht zutrifft.

      Doch, sogar zweimal:

      Seit wann braucht man manipulierte Bilder, um problematische Inhalte zu verbreiten?

      Stimmt, dass nicht alle problematische Inhalte manipuliert sind. Ein Teil aber schon.

      Nein, du wirst nicht die Quelle für jeden Scheiß finden

      Stimmt, nicht für jeden Scheiß. Aber für ein Teil schon.

      Den du ablehnst, weil er nicht 100%-ig dein Ziel erfüllt

      Nee, ich lehne es ab, weil es nicht wirkbar ist. Ein US-Urteil ist nicht repräsentativ für ein einigermaßen funktionierendes System. Quasi alle Videogames haben „süchtig machenden Algorithmen.“

      • CyberEgg@discuss.tchncs.de
        link
        fedilink
        arrow-up
        1
        ·
        4 days ago

        Es ist nicht deutlich, weil der Nirvana-Fehlschluss hier, so wie du ihn beschreibst, nicht zutrifft.

        Doch, sogar zweimal:

        Seit wann braucht man manipulierte Bilder, um problematische Inhalte zu verbreiten?

        Stimmt, dass nicht alle problematische Inhalte manipuliert sind. Ein Teil aber schon.

        Nein, du wirst nicht die Quelle für jeden Scheiß finden

        Stimmt, nicht für jeden Scheiß. Aber für ein Teil schon.

        Für einen wie großen Anteil? Und worauf basiert diese Annahme (bezüglich des Anteils)?
        Ich bezweifle, dass diese Anteile den Aufwand jeweils rechtfertigen.

        US-Urteil ist nicht repräsentativ für ein einigermaßen funktionierendes System.

        Von welchem System genau redest du? Dass die Algorithmen sozialer Medien schädlich sind, ist nicht nur die Aussage des US-Gerichts.

        Quasi alle Videogames haben „süchtig machenden Algorithmen.“

        Nein. Nicht einmal ansatzweise sind “quasi alle” Videospiele annähernd so suchterzeugend wie Social Media-Algorithmen. Und bei denen, die es sind, darf man gerne die entsprechenden Mechaniken angehen.

        • Hapankaali@lemmy.world
          link
          fedilink
          arrow-up
          1
          ·
          4 days ago

          Für einen wie großen Anteil?

          42%.

          Ich bezweifle, dass diese Anteile den Aufwand jeweils rechtfertigen.

          Der Aufwand wäre ja für den (sozialen) Medien. Die wären dann dafür verantwortlich. Es is jetzt auch nicht so, dass die Polizei selber Kindermissbrauch entfernen muss von sozialen Medien (und wenn doch, dann sind die Medienbetriebe auch strafbar).

          Von welchem System genau redest du? Dass die Algorithmen sozialer Medien schädlich sind, ist nicht nur die Aussage des US-Gerichts.

          Was ich meine, ist das so ein Jury-Urteil nichts sagt. If the glove fits…

          • CyberEgg@discuss.tchncs.de
            link
            fedilink
            arrow-up
            1
            arrow-down
            1
            ·
            4 days ago

            42%

            Also aus dem Arsch gezogen und keine debattierbare Daten. Check.

            Der Aufwand wäre ja für den (sozialen) Medien. Die wären dann dafür verantwortlich.

            Jaa, und Social Media-Konzerne sind ja auch dafür bekannt, solche Maßnahmen zuverlässig und eigenverantwortlich umzusetzen. Da muss man nie mit Strafen und Sanktionen arbeiten (/s, falls nicht klar).

            Was ich meine, ist das so ein Jury-Urteil nichts sagt

            Und wie siehts mit einer DAK-Studie aus? Oder Leaks, die Zensur bestimmter Inhalte bestätigen? Oder diese Studie, die den Einfluss von Vorschlagsalgorithmen auf die mentale Gesundheit untersucht?