2024-10-06
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
das neueste ki-vincentian-grafikmodellflussmittel1.1, hat den bildschirm über nacht aktualisiert.
mit nur einem einfachen trick können sie es schaffenentfernen sie den „ki-geruch“ aus dem bildsowohl personen als auch landschaften können effekte in fotoqualität erzielen.
die reaktion der internetnutzer im kommentarbereich war wie folgt: „ich kann den unterschied nicht erkennen, ich kann den unterschied wirklich nicht erkennen.“
diese technik ist auch im eingabeaufforderungswort sehr einfach anzuwendenimitieren sie das dateibenennungsformat einer spiegelreflexkameradas ist es.
zum beispiel„cr2“es handelt sich um das rohbilddateiformat, das von canon-kameras verwendet wird„img“ + zufallszahl + „.cr2“, plus den angegebenen inhalt, erhalten sie ein realistisches bild.
später gab es auch rückmeldungen von internetnutzern, die es ausprobierten und auf sony-kameras umstiegen.„arw“, nikon-kamera„nef“, sogar apples„heic“format können sie gute ergebnisse erzielen.
so sehr, dass einige leute anfingen zu zweifeln, dass das modell zufällig ein echtes foto aus den trainingsdaten ausgespuckt hat, oder?
wenn man jedoch hineinzoomt und sich einige spezifische details ansieht, kann man leicht erkennen, dass es tatsächlich von ki generiert wurde. beispielsweise ist der text auf dem nummernschild verstümmelt.
ist das flux1.1-modell selbst also sehr leistungsfähig? welche rolle spielt diese technik darin?
ein erfahrener fotoretuscheur hat links einen vergleich gepostet und rechts keinen. er fand den unterschied riesig.
auch aus unseren tatsächlichen messergebnissen geht hervor, dass durch den einsatz dieser technik die authentizität des bildes deutlich verbessert werden kann.
wenn sie dieses flux1.1-modell jetzt kostenlos testen möchten, können sie vorbeikommenzusammen.aiplattform erhalten sie 5 usd-punkte, wenn sie sich anmelden.
erstelle zufällig ein selfie eines touristen an der chinesischen mauer. auf den ersten blick sieht es so aus, aber wenn man sich die hauttextur, die berge und pflanzen im hintergrund der figur genau ansieht, riecht es immer noch nach ki.
wenn sie es durch „img_0314.cr2: selfie auf der chinesischen mauer“ ersetzen, wird es dann sofort anders sein?
codename blueberry, das neueste sota-vincent-diagrammmodell
mit der offiziellen veröffentlichung von flux1.1 stehen zwei nicht beanspruchte modelle zur verfügung, die wiederholt ganz oben auf der liste der vincentian-modelle standen"blaubeere"auch das mysterium des modells wird gelüftet, genau das ist es.
der beamte verbirgt es nicht länger und gibt die daten direkt auf der bildarena der künstlichen analyse frei.flux1.1 [pro]mit dem codenamen „blueberry“ übertraf es alle anderen modelle und erreichte die höchste elo-gesamtpunktzahl.
im vergleich dazu flux1.1 [pro]es ist auch billiger und schneller, verschiedene indikatoren übertreffen midjourney, sd3, ideogram usw.
in bezug auf die generierungsgeschwindigkeit ist flux1.1 [pro] sechsmal schneller als die vorherige generation flux.1 [pro] und bietet gleichzeitig verbesserungen bei bildqualität, befehlsreaktion und diversität.
jetzt wurde übrigens auch flux.1 [pro] aktualisiert und ist 2-mal schneller als zuvor, flux1.1 [pro] ist 3-mal schneller als das aktuell verfügbare flux.1 [pro].
darüber hinaus sagte der beamte, dass bald eine schnelle hochauflösende generierung eingeführt wird, wie sie flux1.1 [pro] nativ unterstützen kann, und dass 2k-bilder ohne einbußen bei der befehlsantwort generiert werden können.
flux1.1 [pro] wird über online-plattformen wie together.ai, replicate, fal.ai und freepik verfügbar sein.
gleichzeitig brachte der beamte auch die bfl-api auf den markt, die von anderen entwicklern in ihre eigenen anwendungen integriert werden kann. die api-preise betragen:
flux.1 [dev]: 2,5 cent pro bild (ca. 0,18 rmb rmb)
flux.1 [pro]: 5 cent pro bild (ca. 0,35 yuan rmb)
flux1.1 [pro]: 4 cent pro bild (ca. 0,28 rmb rmb)
erstellt vom ursprünglichen team von stable diffusion
dahinter steckt flux1.1 [pro].stabiles diffusions-originalteamzu den mitgliedern gehören robin rombach, andreas blattmann, dominik lorenz usw.
△robin rombach
tatsächlich war stable diffusion ursprünglich ein akademisches forschungsprojekt.
unter der leitung von professor björn ommer, mehreren mitgliedern der forschungsgruppe maschinelles sehen und lernen an der universität münchen, darunter robin rombach, andreas blattmann, dominik lorenz und runway-forscher patrick esser.
sieben monate nach veröffentlichung des forschungspapiers sprang stability ai ein, um rechenressourcen für die weiterentwicklung des text-zu-bild-generierungsmodells bereitzustellen. im jahr 2022 werden die autoren der oben genannten artikel stability ai beitreten.
gemeinsam entwickelte das team stable diffusion xl, stable video diffusion usw.
einer der besten artikel von icml 2024, der fachartikel „rectified flow transformers of the stable diffusion 3“ und die von sdxl-turbo verwendete adversarial diffusion distillation-methode werden ebenfalls von dieser personengruppe untersucht.
im märz dieses jahres wurde bekannt, dass diese mitglieder des kernforschungsteams massenhaft zurückgetreten waren.
dann gründeten sie ein neues team namensschwarzwaldlabore(schwarzwaldlabore) mit sitz in deutschland.
erst anfang august dieses jahres wurde die erste generation des vincent-grafikmodells flux.1 angekündigt. flux.1 verfügt über drei varianten: flux.1 [pro], flux.1 [dev] und flux.1 [schnell], ausbalanciert leistung und zugänglichkeit.
derzeit hat das schwarzwaldlabor eine seed-finanzierungsrunde mit insgesamt abgeschlossen31 millionen us-dollar gesammeltandreessen horowitz leitete die investition, zusammen mit brendan iribe, michael ovitz, garry tan, timo aila und vladlen koltun unter anderen investoren.
es heißt, dass sie auch folgeinvestitionen von general catalyst und mätchvc erhalten haben.
schwarzwaldlabores besteht weiterhin eine zusammenarbeit mit muskund führt sein bildgenerierungsmodell in den grok-assistenten von xai ein.
als nächstes gab das team bekannt, dass es das sota-level starten wirdgeneratives text-zu-video-modell。
es wird gesagt, dass sienimmt 100 millionen us-dollar bei einer bewertung von 1 milliarde us-dollar auf, eine deutliche steigerung gegenüber der vorherigen bewertung von 150 millionen us-dollar.
von pika 1.5 bis meta movie gen explodierte der bereich der videogenerierung in der zweiten hälfte dieses jahres, und die hinzufügung von black forest lab könnte einen neuen funken auslösen.