[…]

Mit dem Urteil werde anerkannt, “dass die Tech-Unternehmen mit ihren süchtig machenden Algorithmen das Leben ihrer Nutzerinnen und Nutzer ruinieren”, sagte Reichinnek am Donnerstag der Nachrichtenagentur AFP. Notwendig sei nun “ein vollständiges Verbot genau dieser Algorithmen”. Verstöße müssten mit empfindlichen Geldstrafen geahndet werden.

[…]

  • CyberEgg@discuss.tchncs.de
    link
    fedilink
    arrow-up
    10
    ·
    5 days ago

    Ein Verbot von Algorithmen ist einfacher zu formulieren und umzusetzen als dein Vorschlag. Es geht schließlich nicht nur um Astroturfing und gezielte Desinformation. Problematisch wären z.B. auch die Verbreitung negativer Einstellungen zu Körperbildern, toxische Fixierung auf Geschlechterrollen, u.ä.
    Das kannst du nicht einfach alles verbieten, weil vieles davon einfach genuiner Inhalt ist, der von Usern erstellt und verbreitet wird.
    Ein Verbot von Algorithmen (und dessen Durchsetzung) dagegen würde dafür sorgen, dass man weniger leicht in Contentspiralen gerät, dass Interaction Bait schlechter funktioniert und dass die Betreiber Sozialer Medien nicht mehr so einfach durch gezielte Manipulation der Algorithmen in gesellschaftliche Debatten eingreifen könnten.

    • Obin@feddit.org
      link
      fedilink
      arrow-up
      2
      ·
      4 days ago

      Ein Verbot von Algorithmen (und dessen Durchsetzung) dagegen würde dafür sorgen, dass man weniger leicht in Contentspiralen gerät, dass Interaction Bait schlechter funktioniert und dass die Betreiber Sozialer Medien nicht mehr so einfach durch gezielte Manipulation der Algorithmen in gesellschaftliche Debatten eingreifen könnten.

      Darüber hinaus, nehmen wir einmal an, die Algorithmen wären garantiert benevolent und würden dir nur helfen automatisch den tatsächlich “guten” Content zu finden, also keine Desinformation, Hetze usw. Wie soll selbst in diesem Fall jemand, vor allem eine junge Person, je zum mündigen Nutzer werden wenn man ihnen das Denken abnimmt. Was möchte ich sehen? wonach möchte ich suchen? Was interessiert mich? Das sind nicht nur Fragen die einem wertvolle Konsumierungszeit wegnehmen, sondern das ist wichtig, dass sie sich jeder bewusst stellt und beantwortet.

      Tl;dr: Social-Media-Algorithmen sind schlecht, weil sie einem das Denken abnehmen, nicht nur weil sie einen meistens auch noch manipulieren. Weg damit.

    • Hapankaali@lemmy.world
      link
      fedilink
      arrow-up
      1
      arrow-down
      1
      ·
      5 days ago

      Problematisch wären z.B. auch die Verbreitung negativer Einstellungen zu Körperbildern,

      Hier ist eine Lösung, Medien zu verpflichten ggf. KI-generierte oder manipulierte Bilder deutlich zu kennzeichnen. Z.B. kann man sagen, dass minimal 25% der Oberfläche der Gesamtbilder so eine Warnung sein sollte. Dann gibt es auch eine deutliche Marktimpuls, echte Bilder zu herstellen und benutzen.

      Das kannst du nicht einfach alles verbieten, weil vieles davon einfach genuiner Inhalt ist, der von Usern erstellt und verbreitet wird.

      Ja, aber zum Großteil sind das auch Inhalte, die von echten Usern weiter gegeben werden. Wenn die Quellen nicht mehr da sind, geht das auch nicht mehr.

      • CyberEgg@discuss.tchncs.de
        link
        fedilink
        arrow-up
        5
        ·
        edit-2
        4 days ago

        Hier ist eine Lösung, Medien zu verpflichten ggf. KI-generierte oder manipulierte Bilder deutlich zu kennzeichnen.

        Seit wann braucht man manipulierte Bilder, um problematische Inhalte zu verbreiten?

        Ja, aber zum Großteil sind das auch Inhalte, die von echten Usern weiter gegeben werden. Wenn die Quellen nicht mehr da sind, geht das auch nicht mehr.

        Na dann biel Spaß bei der Suche. Nein, du wirst nicht die Quelle dür jeden Scheiß finden und löschen können, den man irgendwo mal gehört haben will. Weil vieles davon auch nach dem Stille-Post-Prinzip verfälscht wird.

        Sorry, dein Ansatz kann nicht funktionieren.

          • CyberEgg@discuss.tchncs.de
            link
            fedilink
            arrow-up
            1
            ·
            4 days ago

            Erklär mal, wo und warum das in diesem Fall relevant sein soll.

            Also ernsthaft, einfach so kommentarlos einen Wikipedia-Link zu droppen, erwartest du wirklich, dass du von anderen so verstanden wirst, wie du verstanden werden willst? Sonetwas provoziert nur Missverständnisse und unbeabsichtigte Strohmann-Diskussionen. Etwas mehr Debattenkultur, bitte sehr.

            • Hapankaali@lemmy.world
              link
              fedilink
              arrow-up
              1
              arrow-down
              1
              ·
              4 days ago

              Entschuldigung, ich dachte, es war schon deutlich.

              Wenn behauptet wird, dass man irgendwas nicht machen sollte, weil es das Problem nicht sofort 100% löst, ist das dieser Nirwana-Fehlschluss. Man sollte nicht argumentieren, dass irgendwas keine perfekte Lösung ist, sondern eine Alternative bieten oder argumentieren warum es besser ist es nicht zu tun.

              Beispiel: Alice behauptet, dass Sicherheitsgurte kein Sinn machen. Es gibt noch immer Opfer im Verkehr.

              Das ist aber ein Fehlschluss. Nur weil es noch immer Opfer gibt, heißt nicht, dass Gurte das Zahl nicht reduzieren. Alice soll argumentieren, warum Gurte mehr Nachteile als Vorteile haben, und / oder bessere Alternativen bringen.

              In diesem konkreten Fall, ist es mir ja schon klar, dass Leute besser informieren über KI-generierten und manipulierten Bilder nicht sofort alle Problemen mit Soziale Medien löst, und wir dann auch nicht sofort alle Kumbaya singen und die Wahlquote der AfD nicht sofort nach 0 senkt. Trotzdem denke ich, dass diese oder ähnliche Maßnahmen beitragen können an Schadensminderung.

              • CyberEgg@discuss.tchncs.de
                link
                fedilink
                arrow-up
                1
                ·
                4 days ago

                Es ist nicht deutlich, weil der Nirvana-Fehlschluss hier, so wie du ihn beschreibst, nicht zutrifft. Du schlägst keine unperfekte, aber irgendwie im Bereich des Umsetzbaren alternativlose Lösung vor. Dein Vorschlag wird nicht abgelehnt, weil er nicht 100% ist.

                Ich bezweifle zum Einen die Umsetzbarkeit und zum anderen die Wirksamkeit deines Vorschlags, und obendrauf gibt es Alternativvorschläge, zum Beispiel den, der hier im Artikel genannt und von Heidi Reichinnek gefordert wird. Den du ablehnst, weil er nicht 100%-ig dein Ziel erfüllt (zumindest lese ich deine Kommentare so, berichtige mich gerne, sollte ich dich falsch verstehen).

                • Hapankaali@lemmy.world
                  link
                  fedilink
                  arrow-up
                  1
                  ·
                  4 days ago

                  Es ist nicht deutlich, weil der Nirvana-Fehlschluss hier, so wie du ihn beschreibst, nicht zutrifft.

                  Doch, sogar zweimal:

                  Seit wann braucht man manipulierte Bilder, um problematische Inhalte zu verbreiten?

                  Stimmt, dass nicht alle problematische Inhalte manipuliert sind. Ein Teil aber schon.

                  Nein, du wirst nicht die Quelle für jeden Scheiß finden

                  Stimmt, nicht für jeden Scheiß. Aber für ein Teil schon.

                  Den du ablehnst, weil er nicht 100%-ig dein Ziel erfüllt

                  Nee, ich lehne es ab, weil es nicht wirkbar ist. Ein US-Urteil ist nicht repräsentativ für ein einigermaßen funktionierendes System. Quasi alle Videogames haben „süchtig machenden Algorithmen.“

                  • CyberEgg@discuss.tchncs.de
                    link
                    fedilink
                    arrow-up
                    1
                    ·
                    4 days ago

                    Es ist nicht deutlich, weil der Nirvana-Fehlschluss hier, so wie du ihn beschreibst, nicht zutrifft.

                    Doch, sogar zweimal:

                    Seit wann braucht man manipulierte Bilder, um problematische Inhalte zu verbreiten?

                    Stimmt, dass nicht alle problematische Inhalte manipuliert sind. Ein Teil aber schon.

                    Nein, du wirst nicht die Quelle für jeden Scheiß finden

                    Stimmt, nicht für jeden Scheiß. Aber für ein Teil schon.

                    Für einen wie großen Anteil? Und worauf basiert diese Annahme (bezüglich des Anteils)?
                    Ich bezweifle, dass diese Anteile den Aufwand jeweils rechtfertigen.

                    US-Urteil ist nicht repräsentativ für ein einigermaßen funktionierendes System.

                    Von welchem System genau redest du? Dass die Algorithmen sozialer Medien schädlich sind, ist nicht nur die Aussage des US-Gerichts.

                    Quasi alle Videogames haben „süchtig machenden Algorithmen.“

                    Nein. Nicht einmal ansatzweise sind “quasi alle” Videospiele annähernd so suchterzeugend wie Social Media-Algorithmen. Und bei denen, die es sind, darf man gerne die entsprechenden Mechaniken angehen.