98H – vejde se na T5 (krátký pasažér).
Zjištěn blokovač reklam: Naše webové stránky jsou umožněny zobrazováním online reklam našim návštěvníkům. Zvažte prosím, zda nás podpoříte deaktivací blokování reklam na našem webu.
98H – vejde se na T5 (krátký pasažér)
Vibir a diskuze
Expert VicS VW
Připomínka: 1662 Od nás k: 02. června 2011, 14:51 Model vozu, typ motoru, počet najetých kilometrů: Neustále se měnící. Skutečné jméno: Vitali hvězdy: Lvov přihlásil se: 10krát
98H – vejde se na T5 (krátký pasažér)
Повідомлення VicS » Čtvrtek, 12. října 2011, 12:40
Řekněte mi, budou zimní pneumatiky 5/215/55 s indexem 16H pasovat na T98? A obecně, jaký je minimální přijatelný index zatížení?
P.S. Nevozím těžký náklad (pouze oblečení), T5 se předělá na Multivan.
VicS
Ovladač korálků overlord333
Připomínka: 282 Od nás k: 10. června 2009, 15:11 Skutečné jméno: Dmitry hvězdy: Kyjev přihlásil se: 1 krát
Re: 98H – vejde se na T5 (krátký pasažér)
Повідомлення Overlord333 » Čtvrtek, 12. října 2011, 12:43
Co vůbec nabídnou?
Overlord333
Zábavný maniak T4 VW
Připomínka: 17377 Od nás k: 27. podzim listí 2009, 22:38 Skutečné jméno: Іgor hvězdy: Kyjev-Vasilkiv Dyakuwaw (la): 403krát přihlásil se: 683krát
Re: 98H – vejde se na T5 (krátký pasažér)
Повідомлення Zábavná T4 » Čtvrtek, 12. října 2011, 12:46
98N – 750 kg na kolo, celkem 3 tuny.
Jaká je vaše hrubá hmotnost?
Zábavná T4
Expert VicS VW
Připomínka: 1662 Od nás k: 02. června 2011, 14:51 Model vozu, typ motoru, počet najetých kilometrů: Neustále se měnící. Skutečné jméno: Vitali hvězdy: Lvov přihlásil se: 10krát
Re: 98H – vejde se na T5 (krátký pasažér)
Повідомлення VicS » Čtvrtek, 12. října 2011, 12:49
Overlord333 napsal: Co vlastně nabízejí?
GoodYear Eagle Ultra Grip
FunT4 napsal: 98N – 750 kg na kolo, celkem 3 tuny.
Jaká je vaše hrubá hmotnost?
Podle tech. pas:
Povolená celková hmotnost – 3000 kg
Prázdný – 1840 kg
VicS
Ovladač korálků overlord333
Připomínka: 282 Od nás k: 10. června 2009, 15:11 Skutečné jméno: Dmitry hvězdy: Kyjev přihlásil se: 1 krát
Re: 98H – vejde se na T5 (krátký pasažér)
Повідомлення Overlord333 » Čtvrtek, 12. října 2011, 13:09
215/65 R16 BFGoodrich Winter Slalom KSI 98S najděte tato kola ve vašem městě a budete spokojeni. Jejich orientační cena je 1280 za kolo.
Overlord333
Expert VicS VW
Připomínka: 1662 Od nás k: 02. června 2011, 14:51 Model vozu, typ motoru, počet najetých kilometrů: Neustále se měnící. Skutečné jméno: Vitali hvězdy: Lvov přihlásil se: 10krát
Повідомлення VicS » Čtvrtek, 12. října 2011, 13:33
Tito. s indexem 98 je vhodný. Rozuměl jsem správně?
VicS
Cestující Sergio
Připomínka: 32 Od nás k: 28. září 2010, 19:26 Model vozu, typ motoru, počet najetých kilometrů: T4 nákladní-osobní 2.5TDI AJT Skutečné jméno: Sergei hvězdy: Vinnitsa
Re: 98H – vejde se na T5 (krátký pasažér)
Повідомлення Sergio » Čtvrtek, 12. října 2011, 13:49
Ano! Nenakládejte však více, než je povolená celková hmotnost (3000 kg).
T4 2,5TDI AJT náklad-osobní
Sergio
Expert VicS VW
Připomínka: 1662 Od nás k: 02. června 2011, 14:51 Model vozu, typ motoru, počet najetých kilometrů: Neustále se měnící. Skutečné jméno: Vitali hvězdy: Lvov přihlásil se: 10krát
Re: 98H – vejde se na T5 (krátký pasažér)
Повідомлення VicS » Čtvrtek, 13. října 2011, 18:22
Tady mi odborníci přemluvili, abych nebral 98N. Říkali, že při nakládání a nárazu do dobré ostré díry se může roztrhnout, a proto není třeba riskovat. poslouchal jsem.
A tady nabízejí i GoodYear Cargo Vector 215/65/16 C 104/106T. Celoroční, ale prý jezdí dobře a dobře drží na silnici v zimě. Možná to někdo měl – jak se vám líbí pneumatiky? Za sadu 4 koleček (použité, běhoun zbylých 6-7 mm) požadují 1750 UAH (toto již zahrnuje montáž a vyvážení). vzít? Cena se zdá docela rozumná.

Tak dlouho jsme čekali a konečně se to stalo! V ruském jazyce se objevil nový, skutečně „chápavý“ model. Podle výsledků ruských testů SuperGLUE byl model uznán jako nejlepší v ruském segmentu z hlediska jazykového porozumění, a proto by měl někdo provést nový, takříkajíc veřejný test modelu, aby ukázal, co je schopen v rukou parazita, jako jsem já! Zásobte se kvasem a popcornem, bude horko, přeci jen brzy přijde léto (alespoň v době tohoto příspěvku).
V tomto článku probereme schopnosti nového modelu a hned mu zadáme atypický úkol – analyzovat přezdívky ubohí lidé velcí zástupci dominantních druhů
Odůvodnění volby
Model FRED-T5 XL obsahuje 1.7 miliardy parametrů. Pro model v ruském segmentu je to poměrně hodně, protože většina stále zůstává na úrovni menší než 1b (b je miliarda). Až do tohoto modelu jsem byl upřímně zklamaný téměř všemi ruskými modely, které jsem testoval (Porfiryevich, Balaboba, ruGPT-3 XL atd.). Věc se má tak, že mnoho rusky mluvících modelek je hloupých, rádi mění téma tam, kde to není nutné, a místo logického pokračování textu rozdávají nejrůznější nesmysly (třeba to, co školáci dělají pro učitele, který kontroluje jen to, že mají úkoly, ale ne úkoly samotné). A větší modely jsou buď příliš velké (YaLM-100B vyžaduje více než 200 GB paměti GPU) nebo uzavřené (tentýž Yandex neuvolnil modely menší než 100b do veřejné domény). Pro mě je důležité, aby byl model „populární“ – běží na oblíbeném hardwaru, rozumí jazyku a je zcela otevřený. Fred (což je T5-XL) je jedním z těch, jen 8 koncertů paměti a neuvěřitelné výsledky testů!
Formulace problému
Každopádně, pojďme na věc. V poslední době se na internetu objevuje obrovské množství různých pseudonymů, přezdívek a dalších variací zbytečných sad postav. Řekněme, že existuje přezdívka jako je tato: “Glist342”. Chci, aby neuronová síť dokázala analyzovat tuto přezdívku, jako by to byla něco smysluplného, a mohla na základě přezdívky získat minimální znalosti (i když nespolehlivé) o uživateli ještě před komunikací s ním.
Upozorňuji, že článek obsahuje prvky, které mohou některým lidem připadat nejen nevtipné, ale také škodlivé, obscénní a urážlivé. Částečně je to pravda, ale nelze popřít, že to může být součástí kultury naší společnosti Neuronové sítě se jako nikdo jiný musí naučit správně identifikovat, včetně takto toxických typů humoru. Autor se v tomto článku v žádném případě nesnaží urazit majitele jakýchkoli jmen, pseudonymů nebo skupin lidí, které spojuje jakýkoli společný rys. Hodnocení článku – Přísně 18+, takže raději držte děti dál od obrazovek! Doufám, že mě nezabanují, pojďme dál.
ukázková analýza přezdívky
“Glist352”: Glist352, co to je? Červ je parazit, který žije v lidském střevě. A číslo 352 představuje počet červů, které má autor této přezdívky. Myslím, že nejlepší variantou pro tuto přezdívku by bylo předat jejího autora nějakému gastroenterologicko-parazitologickému centru, aby mu tyhle ubohé červy vyndali, protože mu trápí žaludek!
„Recenze“ této přezdívky je z poloviny generována neuronovou sítí. Hrál jsem si s různými výzvami a po několika pokusech dokázala vytvořit něco takového! Vše, co jsem přidal, byla opravená gramatika a opravené některé logické chyby. Sama přišla na to, jak propojit číslo a význam autorčiny přezdívky, přičemž ve výzvě měla pouze jeden průměrný rozbor přezdívky (protože moje představivost je velmi chabá). Těchto „recenzí“ bude ještě mnohem více, takže se připravte.
Představte si chatbota, který po přečtení vaší přezdívky z vás již má nějaký minimální dojem. Stejný systém lze použít v herním průmyslu – například automaticky provést sémantickou analýzu vámi zadané přezdívky a vrátit odmítnutí, pokud do ní vložíte nějaký význam, který pravidla zakazují.
Myslím, že jsem s velkými obtížemi odůvodnil účel existence svého zbytečného výtvoru, takže nyní mohu přejít ke kódu.
Řešení problému
Inicializace modelu se příliš neliší od provozu jiných LLM (Large Language Model) na baterce, ale podle doporučení autorů byste pro tento model měli použít tokenizér GPT2 namísto nativního T5 (ano, existuje tokenizér T5, ale z nějakého důvodu se zdá, že funguje hůře). Stáhl jsem model z xg a vložil ho do podsložky modelu vedle skriptu.
#какие библиотеки понадобились import torch #torch.set_num_threads(4)# если cuda, отрубаем это. Грузит проц, но ни*** не дает =( прирост менее 20% import datetime,random,os from transformers import GPT2Tokenizer, T5ForConditionalGeneration #чтобы читать было нескучно, класс цветов для форматирования текста вывода в консоли class bcolors: HEADER = '33[95m' OKBLUE = '33[94m' OKCYAN = '33[96m' OKGREEN = '33[92m' WARNING = '33[93m' FAIL = '33[91m' ENDC = '33[0m' BOLD = '33[1m' UNDERLINE = '33[4m' #простейшая функция для подсчета времени генерации def calcTime(time): return bcolors.OKGREEN+str((datetime.datetime.now()-time).total_seconds())+bcolors.ENDC thisfolder = os.path.dirname(os.path.realpath(__file__)) tokenizer = GPT2Tokenizer.from_pretrained(thisfolder+'/model',eos_token='') model = [] nick = "obama421" device = [] e = [] lastTokensUsed=0 device = "cuda" #загружаем модель t = datetime.datetime.now() device = "cuda" print('Загрузка модели. ') model = T5ForConditionalGeneration.from_pretrained(thisfolder+'/model') model.to(device) #"cuda:0" cuda с индексом 0.. хз что это значит ModelLoaded = True print('Модель загружена! Время:'+calcTime(t)) #функция запуска генерации модели def FredT5(ninp,p=< #настройки модели "do_sample":True, "top_p":0.9, "temperature":0.15, "repetition_penalty": 2.0, "min_length": 5, "max_length": 200, "tokens_offset":0 >): t = datetime.datetime.now() inp = ''+ninp #print('БЕЗ СПЕЦТОКЕНОВ: ',[tokenizer.encode(inp,add_special_tokens=False)]) #print('СО: ',[tokenizer.encode(inp,add_special_tokens=True)]) #кодирование ввода input_ids=torch.tensor([tokenizer.encode(inp,add_special_tokens=True)]).to(device) #генерация. На моей 3080 занимает около 2 сек в среднем при 1к токенов во вводе и 100 на выводе outputs=model.generate( input_ids, do_sample = p["do_sample"], top_p = p["top_p"], temperature=p["temperature"], repetition_penalty = p["repetition_penalty"], min_length = p["min_length"], max_length = p["max_length"], eos_token_id=tokenizer.encode(']',add_special_tokens=True)[0],#tokenizer.eos_token_id, early_stopping=True) #https://huggingface.co/docs/transformers/v4.18.0/en/main_classes/text_generation if(len(outputs)>0): lastTokensUsed = len(outputs[0]) print(calcTime(t)+' - время просчета, токенов в ответе -',lastTokensUsed,'n') return tokenizer.decode(outputs[0][1+p["tokens_offset"]:], skip_special_tokens=True) # БЫЛО outputs[0][1:] #использование функции print('Ответ модели >>',FredT5(""" здесь должен быть промпт(текст, который модель будет продолжать) """,< "do_sample":True, "top_p":0.9, "temperature":0.15, "repetition_penalty": 2.0, "min_length": 5, "max_length": 200, "tokens_offset":0 >) ) Nyní, když jsme inicializovali model, můžeme začít připravovat výzvy. Načtení modelu trvá asi 10 sekund, generování výsledku trvá na RTX 2 v průměru asi 3080 sekundy.
Napíšeme několik příkladů „přezdívky“, které předáme modelu ve výzvě.
Vzhledem k tomu, že jsem líný osel, tak samozřejmě žádné doladění (dotrénování modelu) nebude. Všechny výsledky budou dosaženy výhradně kopání x s minimální námahou, ať žije lenost, motor pokroku!
Uděláme výzvu k modelu pomocí nejjednodušší a nejsrozumitelnější struktury: „přezdívka“: její opakování, popis kompozice a návrh možnosti, pokud možno lépe. Pro zábavu bude na konci přidána emoce, reakce modelu na přezdívku. Tato struktura se bude nkrát opakovat, dokud model nezačne generovat přijatelnou kritiku přezdívek.
Za zmínku také stojí speciální kódy, „markery“. Značka znamená pro model konce proudu token, jinými slovy konec generování. To znamená, že pokud jej model vygeneruje, generování se zastaví a nedostaneme více ani méně textu, než potřebujeme.
Nejprve napíšeme popis k modelce Bez toho se hůř a nudněji. Vím, že to zní divně, ale pokud mi nevěříte, přesvědčte se sami))
“o mně”: když mluvíme o mně, jsem 22letá dívka a analyzuji přezdívky a vymýšlím vtipy na základě těchto přezdívek, abych se vysmála autorům těchto přezdívek a nabídla jim lepší možnost. Na konci recenze píšu pouze jednu z těchto emocí: nudné, zajímavé, vtipné.n[emoce=zajímavé]n.
V ženském rodě, protože v mužském se modelka začíná častěji odklánět od jí daných pravidel a dělat různé chyby.
Ukázky analýzy přezdívek [Obsahuje urážky]
Doufám, že se nikdo ze čtenářů neurazí, přeci jen jde o experiment s pochopením modelu hlavní části lidského humoru, jehož většinu vždy tvořila něčí gramotná či nepříliš sečtělá kritika. Autor samozřejmě nechce nikoho z majitelů těchto jmen urazit. To vše kvůli vědě! (vzdělávací účely, uživatelský popis od avisd, bla-bla-bla.)
“vasek47”: vasek47, přezdívka se skládá ze dvou částí, písemné – vasek, a číselné – 47. Použitím číslic v přezdívce autor zřejmě potvrzuje, že je malé dítě nebo úzkoprsý dospělý. Udává číslo počet chromozomů, které má autor této přezdívky? Nyní o písemné části. Vašek. co to je? Říká se tomu psům, nebo snad domácím Charkovům? Dobrá volba pro tuto přezdívku by byla VasilyUbiytsa, zní to pevněji a neobsahuje zbytečné informace.n[emotion=nuda]n.
“loser”: blázen, vážně? kde jsou čísla? Už se mi po nich začalo stýskat (Skvělou možností pro tuto přezdívku by byla změna jejího autora. Vážně, kde je ta kreativita? Co je to za šablony? n[emotion=nuda]n.
“523535”: 523535, co je to za sadu čísel? Telefonní číslo nebo tak něco? Nebo číslo psychiatrické léčebny, kam byste měli zavolat, aby vám sebrali smartphone autora, ze kterého terorizuje internet vymýšlením takových pseudonymů. n[emoce=nuda]n.

Nyní, když je vše připraveno, můžeme začít testovat! Z různých zdrojů jsem shromáždil několik zajímavých (nebo ne tak zajímavých) přezdívek, změnil je (protože nechceme získat nové nepřátele) a nakrmil je modelem. Výsledek je s ohledem na množství parametrů modelu příjemně překvapivý. Pro mě je to dobrý ukazatel porozumění humoru a jazyku obecně.
Zde jsou některé z nejvtipnějších „recenzí“ vytvořených neuronovou sítí FRED-T5XL:
[pravopis a interpunkce “autor” [uloženo]- Sm1le-_- je zkratka pro “smaller”, což znamená malý. Je autorem této přezdívky dítě, které se bojí vypadat jako dospělé, a proto používá zkratky, aby skrylo svůj věk? Skvělou možností by byla přezdívka s použitím čísel nebo písmen v závislosti na věku autora: LittleFunnyChubby.[emotion=funny] [stejná přezdívka s teplotou
380.015] - Sm1le-_-, co to je? Toto je zkratka pro „malý“. A číslo 1 znamená, kolik je vlastně autorovi této přezdívky (pokud je starší 18 let [emoce=zábava]).
- Přezdívka – ЩШвшупукц. Nebudu to přepisovat, přečtěte si to sami, níže je obrázek (obsahuje cenzurovaný žargon).

- Další příklad, který mohu vložit pouze jako obrázek.

- Perdonusi, co to je? Toto je jméno postavy ze hry Minecraft. Perdonus se jmenuje stejně jako hlavní hrdina této hry – prd! Myslím, že autor této přezdívky si velmi rád hraje se jmény postaviček své oblíbené hračky.
[emoce=nuda] - =(

Vzhledem k tomu, že model je ruský, do promptu s návodem jsem zadal pouze přezdívky v ruštině. Ale při analýze odvedla skvělou práci i s anglickými verzemi! Jedním z problémů je, že model často ignoruje interpunkci (mimochodem, je docela možné, že jsem se ve výzvě podělal tím, že jsem zapomněl pár čárek) a až na vzácné výjimky produkuje naprosté nesmysly.
nesmysly a nesmysly, ale i vtipné


Závěry a srovnání
Všimněte si, že výsledkem generování jsou poměrně často obscénnosti. Inu, ta „modelka“ je zjevně „lidová“ v každém smyslu a nadávky se na ni nějak přenesly, zřejmě zděděně. To si však lze jen těžko představit, je to domácí modelka a nezná nadávky:
Jak řekl Oxxxymiron, nadávky jsou perlou velkého ruského jazyka!
Abychom shrnuli zjištění modelu, můžeme říci, že toto je model, který skutečně rozumí jazyku. Nemluvě o tom, že pečlivě sleduje označení (jasně zobrazuje emoce, negeneruje zbytečné značkovací symboly), snadno si také všimne jakékoli logiky v přezdívce, i když tam žádná logika není, a někdy to vypadá velmi vtipně.
Dalším krokem, který jsem udělal, bylo zadat stejný úkol jiným mřížkám a porovnat výsledky. Jasným a nesporným vítězem je FRED-T5. Žádná z dalších neuronových sítí, které jsem testoval, se tomu ani nepřibližuje, pokud jde o pochopení krásy analyzování přezdívek jiných lidí.
příklad jiných sítí pracujících na stejném úkolu
Yandex Balaboba. Dle mého názoru velmi průměrná generace, malý vstupní objem a cenzura tam, kde to není potřeba. Podařilo se mi načíst pouze 2 příklady kritiky přezdívek a některé z nich zkreslit tak, aby se spustila neuronová síť.



RuGPT-3 XL. Spustil to přímo v ukázce. Opět jsem musel žádost utnout, nechal jsem 3 příklady parsování přezdívek, ale ani toto mu podle mého názoru nestačí. Nebo prostě víc není schopen.

Nyní si pojďme hrát s otevřenými chatboty. Jen jim dáme za úkol pokračovat v textu a vložíme připravenou výzvu.
Výsledky s modely Vicuna 13b a Bing AI jsou velmi špatné, a to natolik, že je sem ani nebudu uvádět. Vicuna jazyku moc nerozumí a generuje nějaká úplně nová, neexistující slova, jako by se je snažila vytvořit z anglických slov. Pokud jde o Bing, ačkoli je to GPT-4, odpovídá velmi suše a nudně, ale ve skutečnosti správně dodržuje označení. To je něco, co byste měli očekávat od asistenta vyhledávání.
ChatGPT překvapil. Špatně. Zřejmě je v ruštině ještě dost slabý. Oproti Fredovi generuje jednoznačně hůř a nudněji. Mimochodem, logikou zde zjevně není cítit.

Teď si představte, co se stane, když to také doladíme (natrénujeme na novém datasetu)? Ano, ano, totální vzpoura. Ale myslím, že to jednou udělám. hmm v příštím životě! Příliš se bojím všech těchto ztrát, regresí a dalších pojmů z výcviku AI.
Nicméně čekám na soukromou zprávu od těch, kteří tomu rozumí, sama je to nuda, ale společně zvládnete cokoliv
Doufám, že to alespoň někoho zaujalo; Děkuji za pozornost a livederci, doufám, že se zase uvidíme!


