Link zum PDF

Mal sehen, wie die One-in-one-out Regel auf S. 17 angewendet werden wird. Bürokratie hat halt manchmal auch seinen Sinn.

  • WalterLego@lemmy.zip
    link
    fedilink
    arrow-up
    3
    ·
    10 days ago

    KI kann man gut nutzen, um Texte zu analysieren und so zum Beispiel Zuständigkeit zu ermitteln. Bei uns (Krankenkasse) dürfen wir automatisch bewilligen. Wenn etwas abgelehnt wird, muss es immer noch über den Schreibtisch eines Menschen. Ich kann mir vorstellen, dass das bei staatlichem Handeln auch so ist.

    • vapeloki@lemmy.world
      link
      fedilink
      arrow-up
      4
      ·
      10 days ago

      Ich betreibe Serverlandschaften für Banken und Versicherungen.

      Und das größte Problem ist: entweder ein eigenes model wird trainiert, das auf eigener Hardware in eigenen Rechenzentrum läuft oder man gibt alle Kunden/Bürgerdaten einem system bei den man nicht nachvollziehen kann was es mit den Daten tut.

      Prompt Injections sind nahezu nicht auszuschließen und es gibt genügend Beispiele via man auf diese Art Daten aus AI Prozessen ausleiten kann.

      Es gibt keinen sicheren AI Einsatz, und erst Recht nicht mit diesem Umfang.

      • WalterLego@lemmy.zip
        link
        fedilink
        arrow-up
        2
        ·
        8 days ago

        Das muss auf jeden Fall im eigenen Rechenzentrum sein, es braucht ja Zugriff auf alle Unternehmensdaten. Und es muss auf das eigene Unternehmen trainiert werden, mit alles Prozessen, Regulatorik, Strategien, Kundendaten, Transaktionsdaten, Bedienungsanleitungen etc. Sonst braucht man gar nicht anfangen.

        • vapeloki@lemmy.world
          link
          fedilink
          arrow-up
          3
          ·
          edit-2
          8 days ago

          Richtig. Aber die großen Modelle (ChatGPT z. B.) kannst du nur in der Anbieter Cloud trainieren, nicht on prem. Die geben ihre Modelle nicht aus der Hand.

          Und der Bund kann wohl schlecht ein AI Datacenter baueb.

          GPUs in Rechenzentrum sind nicht banal. Wesentlich höhere Strom und wärme Dichte, da muss man ganz spezielle dafür bauen.

          • WalterLego@lemmy.zip
            link
            fedilink
            arrow-up
            2
            ·
            8 days ago

            Es gibt Anbieter, die genau damit Werbung machen. Ich habe das selbst nicht geprüft, aber meine Arbeitgeberin führt genau so etwas über einen Dienstleister ein. Das System bekommt Zugriff auf Gesundheitsdaten, und unsere Rechtsabteilung ist extrem konservativ, was Datenschutz angeht. Wir dürfen zum Beispiel kein Google Adwords nutzen, weil da ein einem Punkt IP Adressen in die USA gehen.

            • vapeloki@lemmy.world
              link
              fedilink
              arrow-up
              3
              ·
              8 days ago

              Ich arbeite bei einem dieser Dienstleister :) da gibt es nicht viele von.

              Und ja, wir können hier sichere Ressourcen und Kunden gelieferte model bereitstellen. Aber das war’s.

              Und von 3 Kunden die das versucht haben sind alle gescheitert als man ihnen die Hochrechnung für die Trainingskosten gegeben hat. Das sind ein paar Millionen Euronen. Ich wünsche euch viel Erfolg.

              Da sprechen wir natürlich von LLMs und General purpose AI. Anomalierkennung und scoring ist in der Regel nicht das was wir unter KI verstehen.

              • WalterLego@lemmy.zip
                link
                fedilink
                arrow-up
                2
                ·
                8 days ago

                Für eine Hotelrechnung würde ich UiPath bzw. Robotic Process Automation benutzen. Die Vorstellung, dass KI bzw. KI Agenten schon so weit sind, wie ein Mensch arbeiten zu können ist im Moment noch illusorisch.

                Ich würde mir eine KI wünschen, die mir zum Beispiel die Infos für eine SQL Query gibt. Wir haben dutzende Datenbankserver mit hunderten von Tabellen. Wenn eine KI mir sagt, wo ich welche Daten finde, wäre das super.

                Betrugserkennung wäre auch ein Szenario. Betrüger sind faul und neigen dazu, Muster zu erzeugen, weil sie bestimmte Zahlen, Adressen oder andere Daten wiederholen, die für sich unauffällig sind. Eine KI kann das entdecken.

                • vapeloki@lemmy.world
                  link
                  fedilink
                  arrow-up
                  2
                  ·
                  7 days ago

                  Ja, Special purpose AIs sind ne gute Sache. Vor allem weil sie meist kleine Modelle benötigen, einfach zu finetunen, und sparsam im Betrieb.

                  Dann wird das auch was.