• kohlenstoff@feddit.org
    link
    fedilink
    arrow-up
    26
    arrow-down
    2
    ·
    18 days ago

    Anthropic Marketing am Köcheln.

    Aber im Ernst: Nachdem die KI-Konzerne ihre Modelle auf quelloffenem Code von notorisch unterfinanzierten Privatprojekten trainiert haben, drehen sie nun den Spieß um und vermarkten diese Unterfinanzierung des anderen als Unverzichtbarkeit ihres eigenen Produkts. Die Sicherheitslücken, ob nun valide oder nicht, darf dann ein armer Wicht erst validieren und womöglich ausbügeln. Und Medien schreiben die Marketingveröffentlichung kritiklos ab. Wow.

      • kohlenstoff@feddit.org
        link
        fedilink
        arrow-up
        17
        ·
        17 days ago

        Mein Problem ist weniger, dass es ein falscher Alarm sein könnte, sondern dass die tausenden Konzerne, die ffmpeg nutzen, das auch schon lange finden hätten können. Haben sie aber nicht, weil sie lieber die kostenlose Arbeit ausbeuten (wie der FFMPEG Account ja selbst schreibt) und sich nur bedienen. Jetzt kommt ein dritter Laden, präsentiert etwas, nachdem er Milliarden Dollar verbrannt hat, schüttelt Hände und verkauft sein Produkt als Sicherheitsfeature im Anhang.

        Ja, das hat ein Geschmäckle, insbesondere nach 4 Jahren nonstop KI-Hype.

        • Akip@piefed.world
          link
          fedilink
          English
          arrow-up
          1
          ·
          12 days ago

          Danke für den Link, ich kenne mich im security Bereich zu wenig aus um eine Vernünftige Einschätzung zu geben. Wenn du sagst es ist Overhyped und Overblown dann vertraue ich deinem Urteil.

          • kohlenstoff@feddit.org
            link
            fedilink
            arrow-up
            2
            ·
            12 days ago

            Kurz zusammengefasst: Die Sicherheitsfirma arbeitet im Artikel mit recht sauberer Methodik aus, dass die Schwachstellen auch von anderen, deutlich kleineren Modellen gefunden werden. Damit verschwindet das Argument, dass Mythos ein gewaltiger Schritt ist bzw. sich darüber von anderen Modellen abgrenzen kann. Das würde ich als overhyped bezeichnen.

            Aber vertrau lieber nicht auf die Meinung von einem Internet-Random ;)

  • lichtmetzger@discuss.tchncs.de
    link
    fedilink
    arrow-up
    12
    arrow-down
    1
    ·
    17 days ago

    We triage every bug that we find, then send the highest severity bugs to professional human triagers to validate before disclosing them to the maintainer.

    Das ganze Thema ist heißer als es gekocht wird - wenn die “AI” so gut wäre, warum müssen die Bugs dann noch durch echte Menschen überprüft werden? Die Fehlerquote dürfte doch sehr hoch sein.

    Für mich sieht das nach purem Marketingspektakel aus. AGI steht bei Anthropic wohl für “A Guy Instead”, wie Pivot to AI so schön kommentiert hat.

  • jeffep@lemmy.world
    link
    fedilink
    arrow-up
    3
    ·
    17 days ago

    Krasser Fortschritt, wenn man sich die geleakte Codequalität der Vorversion so anschaut. Man könnte glatt meinen, hier sollen positive Schlagzeilen generiert werden.

    • aaaaaaaaargh@feddit.org
      link
      fedilink
      arrow-up
      10
      ·
      17 days ago

      Ja, garantiert und absolut, weil KI natürlich generell nicht komplett overhyped ist und auch nicht jede dieser Stimmungsanheizer bisher in nüchterne Realität gemünzt komplett übertrieben waren.

      Man ist überwiegend nicht Anti-KI, man ist Anti-Bullshit und das ist auch gut so.

      • General_Effort@lemmy.world
        link
        fedilink
        arrow-up
        5
        arrow-down
        6
        ·
        17 days ago

        Lemmy ist voll von anti-KI-Bullshit, der fleißig hochgewählt wird. Anti-Bullshit gibt’s hier nicht. Als Kollektiv sind die Poster hier auch nicht informiert genug, um zu vernünftigen Einschätzungen zu kommen.

        • aaaaaaaaargh@feddit.org
          link
          fedilink
          arrow-up
          6
          ·
          edit-2
          17 days ago

          Soweit ich das mitverfolge, wird hier überwiegend AI Slop runtergewählt, also hauptsächlich KI-Memes. Ich finde das dahingehend gut als dass das Meme-Format eigentlich dadurch lebt, dass es eben nicht perfekt hochglanzmäßig aussieht, sondern eben immer relativ dilletantisch. Wenn man hier KI im großen Stil etablieren würde, würde man meiner Ansicht nach einen ebenso großen Teil der Meme-Kultur verlieren.

          Anti-Bullshit gibt’s hier nicht, weil der Bullshit es glücklicherweise gar nicht erst hier her schafft. Schau dir mal zum Vergleich LinkedIn an, dann wird schnell ersichtlich, was ich meine.

          Ich hab hier auch schon konstruktive Unterhaltungen über KI geführt und ich hab nicht den Eindruck, dass das ganze Thema vollständig abgelehnt wird, sondern nur der oftmals ziemlich dumme Umgang damit.

          • General_Effort@lemmy.world
            link
            fedilink
            arrow-up
            1
            ·
            17 days ago

            Soweit ich das mitverfolge, wird hier überwiegend AI Slop runtergewählt, also hauptsächlich KI-Memes.

            Das ist ja auch eine interessante Beobachtung. Brigaden, die KI-Generiertes automatisch hochwählen, findest du nicht.

            LinkedIn

            Mir ist noch nicht in den Sinn gekommen, Lemmy als Gegen-LinkedIn zu begreifen. Hmm. Dass die (Selbst-)Vermarkter auf LI Bullshit schaufeln, ist nicht neu. Das ist keine KI-Sache. Sollte man vielleicht Leuten zeigen, die sich überlegen Geisteswissenschaften zu studieren.

            Ändert aber nix daran, dass man hier auch in einer Bullshit-Blase ist. Keine Ahnung, was das antreibt.

        • macniel@feddit.org
          link
          fedilink
          arrow-up
          6
          arrow-down
          2
          ·
          17 days ago

          Aber du oh allwissender General ist natürlich top informiert und kann mit fug und recht behaupten, dass LLM keine Blase ist und auf keinen Fall gefährlich für FOSS und realer Umgebung ist.

    • SkavarSharraddas@gehirneimer.de
      link
      fedilink
      arrow-up
      8
      ·
      17 days ago

      Nichts was LLM-"KI"s eventuell mal gutes leisten werden kann jemals den Schaden aufwiegen den die LLM-“KI”-Techbros verursacht haben: Trump wieder zum Präsidenten machen, Weapons of Mass Disinformation erschaffen, Klimakrise weiter anheizen, globale Ressourcen verschwenden, Demokratie vernichten, “KI” als Sündenbock vorschieben so dass kein Mensch mehr für irgendwelche Fehler (oder “Fehler”) Verantwortung übernehmen und haften muss…

      KI kann gut sein, aber LLMs sind so overhyped dass selbst die rein monetären Investitionen wahrscheinlich größer sind als jeglicher (gesamtgesellschaftlicher) Nutzen der dabei rauskommt.