1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677787980818283848586878889909192939495969798991001011021031041051061071081091101111121131141151161171181191201211221231241251261271281291301311321331341351361371381391401411421431441451461471481491501511521531541551561571581591601611621631641651661671681691701711721731741751761771781791801811821831841851861871881891901911921931941951961971981992002012022032042052062072082092102112122132142152162172182192202212222232242252262272282292302312322332342352362372382392402412422432442452462472482492502512522532542552562572582592602612622632642652662672682692702712722732742752762772782792802812822832842852862872882892902912922932942952962972982993003013023033043053063073083093103113123133143153163173183193203213223233243253263273283293303313323333343353363373383393403413423433443453463473483493503513523533543553563573583593603613623633643653663673683693703713723733743753763773783793803813823833843853863873883893903913923933943953963973983994004014024034044054064074084094104114124134144154164174184194204214224234244254264274284294304314324334344354364374384394404414424434444454464474484494504514524534544554564574584594604614624634644654664674684694704714724734744754764774784794804814824834844854864874884894904914924934944954964974984995005015025035045055065075085095105115125135145155165175185195205215225235245255265275285295305315325335345355365375385395405415425435445455465475485495505515525535545555565575585595605615625635645655665675685695705715725735745755765775785795805815825835845855865875885895905915925935945955965975985996006016026036046056066076086096106116126136146156166176186196206216226236246256266276286296306316326336346356366376386396406416426436446456466476486496506516526536546556566576586596606616626636646656666676686696706716726736746756766776786796806816826836846856866876886896906916926936946956966976986997007017027037047057067077087097107117127137147157167177187197207217227237247257267277287297307317327337347357367377387397407417427437447457467477487497507517527537547557567577587597607617627637647657667677687697707717727737747757767777787797807817827837847857867877887897907917927937947957967977987998008018028038048058068078088098108118128138148158168178188198208218228238248258268278288298308318328338348358368378388398408418428438448458468478488498508518528538548558568578588598608618628638648658668678688698708718728738748758768778788798808818828838848858868878888898908918928938948958968978988999009019029039049059069079089099109119129139149159169179189199209219229239249259269279289299309319329339349359369379389399409419429439449459469479489499509519529539549559569579589599609619629639649659669679689699709719729739749759769779789799809819829839849859869879889899909919929939949959969979989991000100110021003100410051006100710081009101010111012101310141015101610171018101910201021102210231024102510261027102810291030103110321033103410351036103710381039104010411042104310441045104610471048104910501051105210531054105510561057105810591060106110621063106410651066106710681069107010711072107310741075107610771078107910801081108210831084108510861087108810891090109110921093109410951096109710981099110011011102110311041105110611071108110911101111111211131114111511161117111811191120112111221123112411251126112711281129113011311132113311341135113611371138113911401141114211431144114511461147114811491150115111521153115411551156115711581159116011611162116311641165116611671168116911701171117211731174117511761177117811791180118111821183118411851186118711881189119011911192119311941195119611971198119912001201120212031204120512061207120812091210121112121213121412151216121712181219122012211222122312241225122612271228122912301231123212331234123512361237123812391240124112421243124412451246124712481249125012511252125312541255125612571258125912601261126212631264126512661267126812691270127112721273127412751276127712781279128012811282128312841285128612871288128912901291129212931294129512961297129812991300130113021303130413051306130713081309131013111312131313141315131613171318131913201321132213231324132513261327132813291330133113321333133413351336133713381339134013411342134313441345134613471348134913501351135213531354135513561357135813591360136113621363136413651366136713681369137013711372137313741375137613771378137913801381138213831384138513861387138813891390139113921393139413951396139713981399140014011402140314041405140614071408140914101411141214131414141514161417141814191420142114221423142414251426142714281429143014311432143314341435143614371438143914401441144214431444144514461447144814491450145114521453145414551456145714581459146014611462146314641465146614671468146914701471147214731474147514761477147814791480148114821483148414851486148714881489149014911492149314941495149614971498149915001501150215031504150515061507150815091510151115121513151415151516151715181519152015211522152315241525152615271528152915301531153215331534153515361537153815391540154115421543154415451546154715481549155015511552155315541555155615571558155915601561156215631564156515661567156815691570157115721573157415751576157715781579158015811582158315841585158615871588158915901591159215931594159515961597159815991600160116021603160416051606160716081609161016111612161316141615161616171618161916201621162216231624162516261627162816291630163116321633163416351636163716381639164016411642164316441645164616471648164916501651165216531654165516561657165816591660166116621663166416651666166716681669167016711672167316741675167616771678167916801681168216831684168516861687168816891690169116921693169416951696169716981699170017011702170317041705170617071708170917101711171217131714171517161717171817191720172117221723172417251726172717281729173017311732173317341735173617371738173917401741174217431744174517461747174817491750175117521753175417551756175717581759176017611762176317641765176617671768176917701771177217731774177517761777177817791780178117821783178417851786178717881789179017911792179317941795179617971798179918001801180218031804180518061807180818091810181118121813181418151816181718181819182018211822182318241825182618271828182918301831183218331834183518361837183818391840184118421843184418451846184718481849185018511852185318541855185618571858185918601861186218631864186518661867186818691870187118721873187418751876187718781879188018811882188318841885188618871888188918901891189218931894189518961897189818991900190119021903190419051906190719081909191019111912191319141915191619171918191919201921192219231924192519261927192819291930193119321933193419351936193719381939194019411942194319441945194619471948194919501951195219531954195519561957195819591960196119621963196419651966196719681969197019711972197319741975197619771978197919801981198219831984198519861987198819891990199119921993199419951996199719981999200020012002200320042005200620072008200920102011201220132014201520162017201820192020202120222023202420252026202720282029203020312032203320342035203620372038203920402041204220432044204520462047204820492050205120522053205420552056205720582059206020612062206320642065206620672068206920702071207220732074207520762077207820792080208120822083208420852086208720882089209020912092209320942095209620972098209921002101210221032104210521062107210821092110211121122113211421152116211721182119212021212122212321242125212621272128212921302131213221332134213521362137213821392140214121422143214421452146214721482149215021512152215321542155215621572158215921602161216221632164216521662167216821692170217121722173217421752176217721782179218021812182218321842185218621872188218921902191219221932194219521962197219821992200220122022203220422052206220722082209221022112212221322142215221622172218221922202221222222232224222522262227222822292230223122322233223422352236223722382239224022412242224322442245224622472248224922502251225222532254225522562257225822592260226122622263226422652266226722682269227022712272227322742275227622772278227922802281228222832284228522862287228822892290229122922293229422952296229722982299230023012302230323042305230623072308230923102311231223132314231523162317231823192320232123222323232423252326232723282329233023312332233323342335233623372338233923402341234223432344234523462347234823492350235123522353235423552356235723582359236023612362236323642365236623672368236923702371237223732374237523762377237823792380238123822383238423852386238723882389239023912392239323942395239623972398239924002401240224032404240524062407240824092410241124122413241424152416241724182419242024212422242324242425242624272428242924302431243224332434243524362437243824392440244124422443244424452446244724482449245024512452245324542455245624572458245924602461246224632464246524662467246824692470247124722473247424752476247724782479248024812482248324842485248624872488248924902491249224932494249524962497249824992500250125022503250425052506250725082509251025112512251325142515251625172518251925202521252225232524252525262527252825292530253125322533253425352536253725382539254025412542254325442545254625472548254925502551255225532554255525562557255825592560256125622563256425652566256725682569257025712572257325742575257625772578257925802581258225832584258525862587258825892590259125922593259425952596259725982599260026012602260326042605260626072608260926102611261226132614261526162617261826192620262126222623262426252626262726282629263026312632263326342635263626372638263926402641264226432644264526462647264826492650265126522653265426552656265726582659266026612662266326642665266626672668266926702671267226732674267526762677267826792680268126822683268426852686268726882689269026912692269326942695269626972698269927002701270227032704270527062707270827092710271127122713271427152716271727182719272027212722272327242725272627272728272927302731273227332734273527362737273827392740274127422743274427452746274727482749275027512752275327542755275627572758275927602761276227632764276527662767276827692770277127722773277427752776277727782779278027812782278327842785278627872788278927902791279227932794279527962797279827992800280128022803280428052806280728082809281028112812281328142815281628172818281928202821282228232824282528262827282828292830283128322833283428352836283728382839284028412842284328442845284628472848284928502851285228532854285528562857285828592860286128622863286428652866286728682869287028712872287328742875287628772878287928802881288228832884288528862887288828892890289128922893289428952896289728982899290029012902290329042905290629072908290929102911291229132914291529162917291829192920292129222923292429252926292729282929293029312932293329342935293629372938293929402941294229432944294529462947294829492950295129522953295429552956295729582959296029612962296329642965296629672968296929702971297229732974297529762977297829792980298129822983298429852986298729882989299029912992299329942995299629972998299930003001300230033004300530063007300830093010301130123013301430153016301730183019302030213022302330243025302630273028302930303031303230333034303530363037303830393040304130423043304430453046304730483049305030513052305330543055305630573058305930603061306230633064306530663067306830693070307130723073307430753076307730783079308030813082308330843085308630873088308930903091309230933094309530963097309830993100310131023103310431053106310731083109311031113112311331143115311631173118311931203121312231233124312531263127312831293130313131323133313431353136313731383139314031413142314331443145314631473148314931503151315231533154315531563157315831593160316131623163316431653166316731683169317031713172317331743175317631773178317931803181318231833184318531863187318831893190319131923193319431953196319731983199320032013202320332043205320632073208320932103211321232133214321532163217321832193220322132223223322432253226322732283229323032313232323332343235323632373238323932403241324232433244324532463247324832493250325132523253325432553256325732583259326032613262326332643265326632673268326932703271327232733274327532763277327832793280328132823283328432853286328732883289329032913292329332943295329632973298329933003301330233033304330533063307330833093310331133123313331433153316331733183319332033213322332333243325332633273328332933303331333233333334333533363337333833393340334133423343334433453346334733483349335033513352335333543355335633573358335933603361336233633364336533663367336833693370337133723373337433753376337733783379338033813382338333843385338633873388338933903391339233933394339533963397339833993400340134023403340434053406340734083409341034113412341334143415341634173418341934203421342234233424342534263427342834293430343134323433343434353436343734383439344034413442344334443445344634473448344934503451345234533454345534563457345834593460346134623463346434653466346734683469347034713472347334743475347634773478347934803481348234833484348534863487348834893490349134923493349434953496349734983499350035013502350335043505350635073508350935103511351235133514351535163517351835193520352135223523352435253526352735283529353035313532353335343535353635373538353935403541354235433544354535463547354835493550355135523553355435553556355735583559356035613562356335643565356635673568356935703571357235733574357535763577357835793580358135823583358435853586358735883589359035913592359335943595359635973598359936003601360236033604360536063607360836093610361136123613361436153616361736183619362036213622362336243625362636273628362936303631363236333634363536363637363836393640364136423643364436453646364736483649365036513652365336543655365636573658365936603661366236633664366536663667366836693670367136723673367436753676367736783679368036813682368336843685368636873688368936903691369236933694369536963697369836993700370137023703370437053706370737083709371037113712371337143715371637173718371937203721372237233724372537263727372837293730373137323733373437353736373737383739374037413742374337443745374637473748374937503751375237533754375537563757375837593760376137623763376437653766376737683769377037713772377337743775377637773778377937803781378237833784378537863787378837893790379137923793379437953796379737983799380038013802380338043805380638073808380938103811381238133814381538163817381838193820382138223823382438253826382738283829383038313832383338343835383638373838383938403841384238433844384538463847384838493850385138523853385438553856385738583859386038613862386338643865386638673868386938703871387238733874387538763877387838793880388138823883388438853886388738883889389038913892389338943895389638973898389939003901390239033904390539063907390839093910391139123913391439153916391739183919392039213922392339243925392639273928392939303931393239333934393539363937393839393940394139423943394439453946394739483949395039513952395339543955395639573958395939603961396239633964396539663967396839693970397139723973397439753976397739783979398039813982398339843985398639873988398939903991399239933994399539963997399839994000400140024003400440054006400740084009401040114012401340144015401640174018401940204021402240234024402540264027402840294030403140324033403440354036403740384039404040414042404340444045404640474048404940504051405240534054405540564057405840594060406140624063406440654066406740684069407040714072407340744075407640774078407940804081408240834084408540864087408840894090409140924093409440954096409740984099410041014102410341044105410641074108410941104111411241134114411541164117411841194120412141224123412441254126412741284129413041314132413341344135413641374138413941404141414241434144414541464147414841494150415141524153415441554156415741584159416041614162416341644165416641674168416941704171417241734174417541764177417841794180418141824183418441854186418741884189419041914192419341944195419641974198419942004201420242034204420542064207420842094210421142124213421442154216421742184219422042214222422342244225422642274228422942304231423242334234423542364237423842394240424142424243424442454246424742484249425042514252425342544255425642574258425942604261426242634264426542664267426842694270427142724273427442754276427742784279428042814282428342844285428642874288428942904291429242934294429542964297429842994300430143024303430443054306430743084309431043114312431343144315431643174318431943204321432243234324432543264327432843294330433143324333433443354336433743384339434043414342434343444345434643474348434943504351435243534354435543564357435843594360436143624363436443654366436743684369437043714372437343744375437643774378437943804381438243834384438543864387438843894390439143924393439443954396439743984399440044014402440344044405440644074408440944104411441244134414441544164417441844194420442144224423442444254426442744284429443044314432443344344435443644374438443944404441444244434444444544464447444844494450445144524453445444554456445744584459446044614462446344644465446644674468446944704471447244734474447544764477447844794480448144824483448444854486448744884489449044914492449344944495449644974498449945004501450245034504450545064507450845094510451145124513451445154516451745184519452045214522452345244525452645274528452945304531453245334534453545364537453845394540454145424543454445454546454745484549455045514552455345544555455645574558455945604561456245634564456545664567456845694570457145724573457445754576457745784579458045814582458345844585458645874588458945904591459245934594459545964597459845994600460146024603460446054606460746084609461046114612461346144615461646174618461946204621462246234624462546264627462846294630463146324633463446354636463746384639464046414642464346444645464646474648464946504651465246534654465546564657465846594660466146624663466446654666466746684669467046714672467346744675467646774678467946804681468246834684468546864687468846894690469146924693469446954696469746984699470047014702470347044705470647074708470947104711471247134714471547164717471847194720472147224723472447254726472747284729473047314732473347344735473647374738473947404741474247434744474547464747474847494750475147524753475447554756475747584759476047614762476347644765476647674768476947704771477247734774477547764777477847794780478147824783478447854786478747884789479047914792479347944795479647974798479948004801480248034804480548064807480848094810481148124813481448154816481748184819482048214822482348244825482648274828482948304831483248334834483548364837483848394840484148424843484448454846484748484849485048514852485348544855485648574858485948604861486248634864486548664867486848694870487148724873487448754876487748784879488048814882488348844885488648874888488948904891489248934894489548964897489848994900490149024903490449054906490749084909491049114912491349144915491649174918491949204921492249234924492549264927492849294930493149324933493449354936493749384939494049414942494349444945494649474948494949504951495249534954495549564957495849594960496149624963496449654966496749684969497049714972497349744975497649774978497949804981498249834984498549864987498849894990499149924993499449954996499749984999500050015002500350045005500650075008500950105011501250135014501550165017501850195020502150225023502450255026502750285029503050315032503350345035503650375038503950405041504250435044504550465047504850495050505150525053505450555056505750585059506050615062506350645065506650675068506950705071507250735074507550765077507850795080508150825083508450855086508750885089509050915092509350945095509650975098509951005101510251035104510551065107510851095110511151125113511451155116511751185119512051215122512351245125512651275128512951305131513251335134513551365137513851395140514151425143514451455146514751485149515051515152515351545155515651575158515951605161516251635164516551665167516851695170517151725173517451755176517751785179518051815182518351845185518651875188518951905191519251935194519551965197519851995200520152025203520452055206520752085209521052115212521352145215521652175218521952205221522252235224522552265227522852295230523152325233523452355236523752385239524052415242524352445245524652475248524952505251525252535254525552565257525852595260526152625263526452655266526752685269527052715272527352745275527652775278527952805281528252835284528552865287528852895290529152925293529452955296529752985299530053015302530353045305530653075308530953105311531253135314531553165317531853195320532153225323532453255326532753285329533053315332533353345335533653375338533953405341534253435344534553465347534853495350535153525353535453555356535753585359536053615362536353645365536653675368536953705371537253735374537553765377537853795380538153825383538453855386538753885389539053915392539353945395539653975398539954005401540254035404540554065407540854095410541154125413541454155416541754185419542054215422542354245425542654275428542954305431543254335434543554365437543854395440544154425443544454455446544754485449545054515452545354545455545654575458545954605461546254635464546554665467546854695470547154725473547454755476547754785479548054815482548354845485548654875488548954905491549254935494549554965497549854995500550155025503550455055506550755085509551055115512551355145515551655175518551955205521552255235524552555265527552855295530553155325533553455355536553755385539554055415542554355445545554655475548554955505551555255535554555555565557555855595560556155625563556455655566556755685569557055715572557355745575557655775578557955805581558255835584558555865587558855895590559155925593559455955596559755985599560056015602560356045605560656075608560956105611561256135614561556165617561856195620562156225623562456255626562756285629563056315632563356345635563656375638563956405641564256435644564556465647564856495650565156525653565456555656565756585659566056615662566356645665566656675668566956705671567256735674567556765677567856795680568156825683568456855686568756885689569056915692569356945695569656975698569957005701570257035704570557065707570857095710571157125713571457155716571757185719572057215722572357245725572657275728572957305731573257335734573557365737573857395740574157425743574457455746574757485749575057515752575357545755575657575758575957605761576257635764576557665767576857695770577157725773577457755776577757785779578057815782578357845785578657875788578957905791579257935794579557965797579857995800580158025803580458055806580758085809581058115812581358145815581658175818581958205821582258235824582558265827582858295830583158325833583458355836583758385839584058415842584358445845584658475848584958505851585258535854585558565857585858595860586158625863586458655866586758685869587058715872587358745875587658775878587958805881588258835884588558865887588858895890589158925893589458955896589758985899590059015902590359045905590659075908590959105911591259135914591559165917591859195920592159225923592459255926592759285929593059315932593359345935593659375938593959405941594259435944594559465947594859495950595159525953595459555956595759585959596059615962596359645965596659675968596959705971597259735974597559765977597859795980598159825983598459855986598759885989599059915992599359945995599659975998599960006001600260036004600560066007600860096010601160126013601460156016601760186019602060216022602360246025602660276028602960306031603260336034603560366037603860396040604160426043604460456046604760486049605060516052605360546055605660576058605960606061606260636064606560666067606860696070607160726073607460756076607760786079608060816082608360846085608660876088608960906091609260936094609560966097609860996100610161026103610461056106610761086109611061116112611361146115611661176118611961206121612261236124612561266127612861296130613161326133613461356136613761386139614061416142614361446145614661476148614961506151615261536154615561566157615861596160616161626163616461656166616761686169617061716172617361746175617661776178617961806181618261836184618561866187618861896190619161926193619461956196619761986199620062016202620362046205620662076208620962106211621262136214621562166217621862196220622162226223622462256226622762286229623062316232623362346235623662376238623962406241624262436244624562466247624862496250625162526253625462556256625762586259626062616262626362646265626662676268626962706271627262736274627562766277627862796280628162826283628462856286628762886289629062916292629362946295629662976298629963006301630263036304630563066307630863096310631163126313631463156316631763186319632063216322632363246325632663276328632963306331633263336334633563366337633863396340634163426343634463456346634763486349635063516352635363546355635663576358635963606361636263636364636563666367636863696370637163726373637463756376637763786379638063816382638363846385638663876388638963906391639263936394639563966397639863996400640164026403640464056406640764086409641064116412641364146415641664176418641964206421642264236424642564266427642864296430643164326433643464356436643764386439644064416442644364446445644664476448644964506451645264536454645564566457645864596460646164626463646464656466646764686469647064716472647364746475647664776478647964806481648264836484648564866487648864896490649164926493649464956496649764986499650065016502650365046505650665076508650965106511651265136514651565166517651865196520652165226523652465256526652765286529653065316532653365346535653665376538653965406541654265436544654565466547654865496550655165526553655465556556655765586559656065616562656365646565656665676568656965706571657265736574657565766577657865796580658165826583658465856586658765886589659065916592659365946595659665976598659966006601660266036604660566066607660866096610661166126613661466156616661766186619662066216622662366246625662666276628662966306631663266336634663566366637663866396640664166426643664466456646664766486649665066516652665366546655665666576658665966606661666266636664666566666667666866696670667166726673667466756676667766786679668066816682668366846685668666876688668966906691669266936694669566966697669866996700670167026703670467056706670767086709671067116712671367146715671667176718671967206721672267236724672567266727672867296730673167326733673467356736673767386739674067416742674367446745674667476748674967506751675267536754675567566757675867596760676167626763676467656766676767686769677067716772677367746775677667776778677967806781678267836784678567866787678867896790679167926793679467956796679767986799680068016802680368046805680668076808680968106811681268136814681568166817681868196820682168226823682468256826682768286829683068316832683368346835683668376838683968406841684268436844684568466847684868496850685168526853685468556856685768586859686068616862686368646865686668676868686968706871687268736874687568766877687868796880688168826883688468856886688768886889689068916892689368946895689668976898689969006901690269036904690569066907690869096910691169126913691469156916691769186919692069216922692369246925692669276928692969306931693269336934693569366937693869396940694169426943694469456946694769486949695069516952695369546955695669576958695969606961696269636964696569666967696869696970697169726973697469756976697769786979698069816982698369846985698669876988698969906991699269936994699569966997699869997000700170027003700470057006700770087009701070117012701370147015701670177018701970207021702270237024702570267027702870297030703170327033703470357036703770387039704070417042704370447045704670477048704970507051705270537054705570567057705870597060706170627063706470657066706770687069707070717072707370747075707670777078707970807081708270837084708570867087708870897090709170927093709470957096709770987099710071017102710371047105710671077108710971107111711271137114711571167117711871197120712171227123712471257126712771287129713071317132713371347135713671377138713971407141714271437144714571467147714871497150715171527153715471557156715771587159716071617162716371647165716671677168716971707171717271737174717571767177717871797180718171827183718471857186718771887189719071917192719371947195719671977198719972007201720272037204720572067207720872097210721172127213721472157216721772187219722072217222722372247225722672277228722972307231723272337234723572367237723872397240724172427243724472457246724772487249725072517252725372547255725672577258725972607261726272637264726572667267726872697270727172727273727472757276727772787279728072817282728372847285728672877288728972907291729272937294729572967297729872997300730173027303730473057306730773087309731073117312731373147315731673177318731973207321732273237324732573267327732873297330733173327333733473357336733773387339734073417342734373447345734673477348734973507351735273537354735573567357735873597360736173627363736473657366736773687369737073717372737373747375737673777378737973807381738273837384738573867387738873897390739173927393739473957396739773987399740074017402740374047405740674077408740974107411741274137414741574167417741874197420742174227423742474257426742774287429743074317432743374347435743674377438743974407441744274437444744574467447744874497450745174527453745474557456745774587459746074617462746374647465746674677468746974707471747274737474747574767477747874797480748174827483748474857486748774887489749074917492749374947495749674977498749975007501750275037504750575067507750875097510751175127513751475157516751775187519752075217522752375247525752675277528752975307531753275337534753575367537753875397540754175427543754475457546754775487549755075517552755375547555755675577558755975607561756275637564756575667567756875697570757175727573757475757576757775787579758075817582758375847585758675877588758975907591759275937594759575967597759875997600760176027603760476057606760776087609761076117612761376147615761676177618761976207621762276237624762576267627762876297630763176327633763476357636763776387639764076417642764376447645764676477648764976507651765276537654765576567657765876597660766176627663766476657666766776687669767076717672767376747675767676777678767976807681768276837684768576867687768876897690769176927693769476957696769776987699770077017702770377047705770677077708770977107711771277137714771577167717771877197720772177227723772477257726772777287729773077317732773377347735773677377738773977407741774277437744774577467747774877497750775177527753775477557756775777587759776077617762776377647765776677677768776977707771777277737774777577767777777877797780778177827783778477857786778777887789779077917792779377947795779677977798779978007801780278037804780578067807780878097810781178127813781478157816781778187819782078217822782378247825782678277828782978307831783278337834783578367837783878397840784178427843784478457846784778487849785078517852785378547855785678577858785978607861786278637864786578667867786878697870787178727873787478757876787778787879788078817882788378847885788678877888788978907891789278937894789578967897789878997900790179027903790479057906790779087909791079117912791379147915791679177918791979207921792279237924792579267927792879297930793179327933793479357936793779387939794079417942794379447945794679477948794979507951795279537954795579567957795879597960796179627963796479657966796779687969797079717972797379747975797679777978797979807981798279837984798579867987798879897990799179927993799479957996799779987999800080018002800380048005800680078008800980108011801280138014801580168017801880198020802180228023802480258026802780288029803080318032803380348035803680378038803980408041804280438044804580468047804880498050805180528053805480558056805780588059806080618062806380648065806680678068806980708071807280738074807580768077807880798080808180828083808480858086808780888089809080918092809380948095809680978098809981008101810281038104810581068107810881098110811181128113811481158116811781188119812081218122812381248125812681278128812981308131813281338134813581368137813881398140814181428143814481458146814781488149815081518152815381548155815681578158815981608161816281638164816581668167816881698170817181728173817481758176817781788179818081818182818381848185818681878188818981908191819281938194819581968197819881998200820182028203820482058206820782088209821082118212821382148215821682178218821982208221822282238224822582268227822882298230823182328233823482358236823782388239824082418242824382448245824682478248824982508251825282538254825582568257825882598260826182628263826482658266826782688269827082718272827382748275827682778278827982808281828282838284828582868287828882898290829182928293829482958296829782988299830083018302830383048305830683078308830983108311831283138314831583168317831883198320832183228323832483258326832783288329833083318332833383348335833683378338833983408341834283438344834583468347834883498350835183528353835483558356835783588359836083618362836383648365836683678368836983708371837283738374837583768377837883798380838183828383838483858386838783888389839083918392839383948395839683978398839984008401840284038404840584068407840884098410841184128413841484158416841784188419842084218422842384248425842684278428842984308431843284338434843584368437843884398440844184428443844484458446844784488449845084518452845384548455845684578458845984608461846284638464846584668467846884698470847184728473847484758476847784788479848084818482848384848485848684878488848984908491849284938494849584968497849884998500850185028503850485058506850785088509851085118512851385148515851685178518851985208521852285238524852585268527852885298530853185328533853485358536853785388539854085418542854385448545854685478548854985508551855285538554855585568557855885598560856185628563856485658566856785688569857085718572857385748575857685778578857985808581858285838584858585868587858885898590859185928593859485958596859785988599860086018602860386048605860686078608860986108611861286138614861586168617861886198620862186228623862486258626862786288629863086318632863386348635863686378638863986408641864286438644864586468647864886498650865186528653865486558656865786588659866086618662866386648665866686678668866986708671867286738674867586768677867886798680868186828683868486858686868786888689869086918692869386948695869686978698869987008701870287038704870587068707870887098710871187128713871487158716871787188719872087218722872387248725872687278728872987308731873287338734873587368737873887398740874187428743874487458746874787488749875087518752875387548755875687578758875987608761876287638764876587668767876887698770877187728773877487758776877787788779878087818782878387848785878687878788878987908791879287938794879587968797879887998800880188028803880488058806880788088809881088118812881388148815881688178818881988208821882288238824882588268827882888298830883188328833883488358836883788388839884088418842884388448845884688478848884988508851885288538854885588568857885888598860886188628863886488658866886788688869887088718872887388748875887688778878887988808881888288838884888588868887888888898890889188928893889488958896889788988899890089018902890389048905890689078908890989108911891289138914891589168917891889198920892189228923892489258926892789288929893089318932893389348935893689378938893989408941894289438944894589468947894889498950895189528953895489558956895789588959896089618962896389648965896689678968896989708971897289738974897589768977897889798980898189828983898489858986898789888989899089918992899389948995899689978998899990009001900290039004900590069007900890099010901190129013901490159016901790189019902090219022902390249025902690279028902990309031903290339034903590369037903890399040904190429043904490459046904790489049905090519052905390549055905690579058905990609061906290639064906590669067906890699070907190729073907490759076907790789079908090819082908390849085908690879088908990909091909290939094909590969097909890999100910191029103910491059106910791089109911091119112911391149115911691179118911991209121912291239124912591269127912891299130913191329133913491359136913791389139914091419142914391449145914691479148914991509151915291539154915591569157915891599160916191629163916491659166916791689169917091719172917391749175917691779178917991809181918291839184918591869187918891899190919191929193919491959196919791989199920092019202920392049205920692079208920992109211921292139214921592169217921892199220922192229223922492259226922792289229923092319232923392349235923692379238923992409241924292439244924592469247924892499250925192529253925492559256925792589259926092619262926392649265926692679268926992709271927292739274927592769277927892799280928192829283928492859286928792889289929092919292929392949295929692979298929993009301930293039304930593069307930893099310931193129313931493159316931793189319932093219322932393249325932693279328932993309331933293339334933593369337933893399340934193429343934493459346934793489349935093519352935393549355935693579358935993609361936293639364936593669367936893699370937193729373937493759376937793789379938093819382938393849385938693879388938993909391939293939394939593969397939893999400940194029403940494059406940794089409941094119412941394149415941694179418941994209421942294239424942594269427942894299430943194329433943494359436943794389439944094419442944394449445944694479448944994509451945294539454945594569457945894599460946194629463946494659466946794689469947094719472947394749475947694779478947994809481948294839484948594869487948894899490949194929493949494959496949794989499950095019502950395049505950695079508950995109511951295139514951595169517951895199520952195229523952495259526952795289529953095319532953395349535953695379538953995409541954295439544954595469547954895499550955195529553955495559556955795589559956095619562956395649565956695679568956995709571957295739574957595769577957895799580958195829583958495859586958795889589959095919592959395949595959695979598959996009601960296039604960596069607960896099610961196129613961496159616961796189619962096219622962396249625962696279628962996309631963296339634963596369637963896399640964196429643964496459646964796489649965096519652965396549655965696579658965996609661966296639664966596669667966896699670967196729673967496759676967796789679968096819682968396849685968696879688968996909691969296939694969596969697969896999700970197029703970497059706970797089709971097119712971397149715971697179718971997209721972297239724972597269727972897299730973197329733973497359736973797389739974097419742974397449745974697479748974997509751975297539754975597569757975897599760976197629763976497659766976797689769977097719772977397749775977697779778977997809781978297839784978597869787978897899790979197929793979497959796979797989799980098019802980398049805980698079808980998109811981298139814981598169817981898199820982198229823982498259826982798289829983098319832983398349835983698379838983998409841984298439844984598469847984898499850985198529853985498559856985798589859986098619862986398649865986698679868986998709871987298739874987598769877987898799880988198829883988498859886988798889889989098919892989398949895989698979898989999009901990299039904990599069907990899099910991199129913991499159916991799189919992099219922992399249925992699279928992999309931993299339934993599369937993899399940994199429943994499459946994799489949995099519952995399549955995699579958995999609961996299639964996599669967996899699970997199729973997499759976997799789979998099819982998399849985998699879988998999909991999299939994999599969997999899991000010001100021000310004100051000610007100081000910010100111001210013100141001510016100171001810019100201002110022100231002410025100261002710028100291003010031100321003310034100351003610037100381003910040100411004210043100441004510046100471004810049100501005110052100531005410055100561005710058100591006010061100621006310064100651006610067100681006910070100711007210073100741007510076100771007810079100801008110082100831008410085100861008710088100891009010091100921009310094100951009610097100981009910100101011010210103101041010510106101071010810109101101011110112101131011410115101161011710118101191012010121101221012310124101251012610127101281012910130101311013210133101341013510136101371013810139101401014110142101431014410145101461014710148101491015010151101521015310154101551015610157101581015910160101611016210163101641016510166101671016810169101701017110172101731017410175101761017710178101791018010181101821018310184101851018610187101881018910190101911019210193101941019510196101971019810199102001020110202102031020410205102061020710208102091021010211102121021310214102151021610217102181021910220102211022210223102241022510226102271022810229102301023110232102331023410235102361023710238102391024010241102421024310244102451024610247102481024910250102511025210253102541025510256102571025810259102601026110262102631026410265102661026710268102691027010271102721027310274102751027610277102781027910280102811028210283102841028510286102871028810289102901029110292102931029410295102961029710298102991030010301103021030310304103051030610307103081030910310103111031210313103141031510316103171031810319103201032110322103231032410325103261032710328103291033010331103321033310334103351033610337103381033910340103411034210343103441034510346103471034810349103501035110352103531035410355103561035710358103591036010361103621036310364103651036610367103681036910370103711037210373103741037510376103771037810379103801038110382103831038410385103861038710388103891039010391103921039310394103951039610397103981039910400104011040210403104041040510406104071040810409104101041110412104131041410415104161041710418104191042010421104221042310424104251042610427104281042910430104311043210433104341043510436104371043810439104401044110442104431044410445104461044710448104491045010451104521045310454104551045610457104581045910460104611046210463104641046510466104671046810469104701047110472104731047410475104761047710478104791048010481104821048310484104851048610487104881048910490104911049210493104941049510496104971049810499105001050110502105031050410505105061050710508105091051010511105121051310514105151051610517105181051910520105211052210523105241052510526105271052810529105301053110532105331053410535105361053710538105391054010541105421054310544105451054610547105481054910550105511055210553105541055510556105571055810559105601056110562105631056410565105661056710568105691057010571105721057310574105751057610577105781057910580105811058210583105841058510586105871058810589105901059110592105931059410595105961059710598105991060010601106021060310604106051060610607106081060910610106111061210613106141061510616106171061810619106201062110622106231062410625106261062710628106291063010631106321063310634106351063610637106381063910640106411064210643106441064510646106471064810649106501065110652106531065410655106561065710658106591066010661106621066310664106651066610667106681066910670106711067210673106741067510676106771067810679106801068110682106831068410685106861068710688106891069010691106921069310694106951069610697106981069910700107011070210703107041070510706107071070810709107101071110712107131071410715107161071710718107191072010721107221072310724107251072610727107281072910730107311073210733107341073510736107371073810739107401074110742107431074410745107461074710748107491075010751107521075310754107551075610757107581075910760107611076210763107641076510766107671076810769107701077110772107731077410775107761077710778107791078010781107821078310784107851078610787107881078910790107911079210793107941079510796107971079810799108001080110802108031080410805108061080710808108091081010811108121081310814108151081610817108181081910820108211082210823108241082510826108271082810829108301083110832108331083410835108361083710838108391084010841108421084310844108451084610847108481084910850108511085210853108541085510856108571085810859108601086110862108631086410865108661086710868108691087010871108721087310874108751087610877108781087910880108811088210883108841088510886108871088810889108901089110892108931089410895108961089710898108991090010901109021090310904109051090610907109081090910910109111091210913109141091510916109171091810919109201092110922109231092410925109261092710928109291093010931109321093310934109351093610937109381093910940109411094210943109441094510946109471094810949109501095110952109531095410955109561095710958109591096010961109621096310964109651096610967109681096910970109711097210973109741097510976109771097810979109801098110982109831098410985109861098710988109891099010991109921099310994109951099610997109981099911000110011100211003110041100511006110071100811009110101101111012110131101411015110161101711018110191102011021110221102311024110251102611027110281102911030110311103211033110341103511036110371103811039110401104111042110431104411045110461104711048110491105011051110521105311054110551105611057110581105911060110611106211063110641106511066110671106811069110701107111072110731107411075110761107711078110791108011081110821108311084110851108611087110881108911090110911109211093110941109511096110971109811099111001110111102111031110411105111061110711108111091111011111111121111311114111151111611117111181111911120111211112211123111241112511126111271112811129111301113111132111331113411135111361113711138111391114011141111421114311144111451114611147111481114911150111511115211153111541115511156111571115811159111601116111162111631116411165111661116711168111691117011171111721117311174111751117611177111781117911180111811118211183111841118511186111871118811189111901119111192111931119411195111961119711198111991120011201112021120311204112051120611207112081120911210112111121211213112141121511216112171121811219112201122111222112231122411225112261122711228112291123011231112321123311234112351123611237112381123911240112411124211243112441124511246112471124811249112501125111252112531125411255112561125711258112591126011261112621126311264112651126611267112681126911270112711127211273112741127511276112771127811279112801128111282112831128411285112861128711288112891129011291112921129311294112951129611297112981129911300113011130211303113041130511306113071130811309113101131111312113131131411315113161131711318113191132011321113221132311324113251132611327113281132911330113311133211333113341133511336113371133811339113401134111342113431134411345113461134711348113491135011351113521135311354113551135611357113581135911360113611136211363113641136511366113671136811369113701137111372113731137411375113761137711378113791138011381113821138311384113851138611387113881138911390113911139211393113941139511396113971139811399114001140111402114031140411405114061140711408114091141011411114121141311414114151141611417114181141911420114211142211423114241142511426114271142811429114301143111432114331143411435114361143711438114391144011441114421144311444114451144611447114481144911450114511145211453114541145511456114571145811459114601146111462114631146411465114661146711468114691147011471114721147311474114751147611477114781147911480114811148211483114841148511486114871148811489114901149111492114931149411495114961149711498114991150011501115021150311504115051150611507115081150911510115111151211513115141151511516115171151811519115201152111522115231152411525115261152711528115291153011531115321153311534115351153611537115381153911540115411154211543115441154511546115471154811549115501155111552115531155411555115561155711558115591156011561115621156311564115651156611567115681156911570115711157211573115741157511576115771157811579115801158111582115831158411585115861158711588115891159011591115921159311594115951159611597115981159911600116011160211603116041160511606116071160811609116101161111612116131161411615116161161711618116191162011621116221162311624116251162611627116281162911630116311163211633116341163511636116371163811639116401164111642116431164411645116461164711648116491165011651116521165311654116551165611657116581165911660116611166211663116641166511666116671166811669116701167111672116731167411675116761167711678116791168011681116821168311684116851168611687116881168911690116911169211693116941169511696116971169811699117001170111702117031170411705117061170711708117091171011711117121171311714117151171611717117181171911720117211172211723117241172511726117271172811729117301173111732117331173411735117361173711738117391174011741117421174311744117451174611747117481174911750117511175211753117541175511756117571175811759117601176111762117631176411765117661176711768117691177011771117721177311774117751177611777117781177911780117811178211783117841178511786117871178811789117901179111792117931179411795117961179711798117991180011801118021180311804118051180611807118081180911810118111181211813118141181511816118171181811819118201182111822118231182411825118261182711828118291183011831118321183311834118351183611837118381183911840118411184211843118441184511846118471184811849118501185111852118531185411855118561185711858118591186011861118621186311864118651186611867118681186911870118711187211873118741187511876118771187811879118801188111882118831188411885118861188711888118891189011891118921189311894118951189611897118981189911900119011190211903119041190511906119071190811909119101191111912119131191411915119161191711918119191192011921119221192311924119251192611927119281192911930119311193211933119341193511936119371193811939119401194111942119431194411945119461194711948119491195011951119521195311954119551195611957119581195911960119611196211963119641196511966119671196811969119701197111972119731197411975119761197711978119791198011981119821198311984119851198611987119881198911990119911199211993119941199511996119971199811999120001200112002120031200412005120061200712008120091201012011120121201312014120151201612017120181201912020120211202212023120241202512026120271202812029120301203112032120331203412035120361203712038120391204012041120421204312044120451204612047120481204912050120511205212053120541205512056120571205812059120601206112062120631206412065120661206712068120691207012071120721207312074120751207612077120781207912080120811208212083120841208512086120871208812089120901209112092120931209412095120961209712098120991210012101121021210312104121051210612107121081210912110121111211212113121141211512116121171211812119121201212112122121231212412125121261212712128121291213012131121321213312134121351213612137121381213912140121411214212143121441214512146121471214812149121501215112152121531215412155121561215712158121591216012161121621216312164121651216612167121681216912170121711217212173121741217512176121771217812179121801218112182121831218412185121861218712188121891219012191121921219312194121951219612197121981219912200122011220212203122041220512206122071220812209122101221112212122131221412215122161221712218122191222012221122221222312224122251222612227122281222912230122311223212233122341223512236122371223812239122401224112242122431224412245122461224712248122491225012251122521225312254122551225612257122581225912260122611226212263122641226512266122671226812269122701227112272122731227412275122761227712278122791228012281122821228312284122851228612287122881228912290122911229212293122941229512296122971229812299123001230112302123031230412305123061230712308123091231012311123121231312314123151231612317123181231912320123211232212323123241232512326123271232812329123301233112332123331233412335123361233712338123391234012341123421234312344123451234612347123481234912350123511235212353123541235512356123571235812359123601236112362123631236412365123661236712368123691237012371123721237312374123751237612377123781237912380123811238212383123841238512386123871238812389123901239112392123931239412395123961239712398123991240012401124021240312404124051240612407124081240912410124111241212413124141241512416124171241812419124201242112422124231242412425124261242712428124291243012431124321243312434124351243612437124381243912440124411244212443124441244512446124471244812449124501245112452124531245412455124561245712458124591246012461124621246312464124651246612467124681246912470124711247212473124741247512476124771247812479124801248112482124831248412485124861248712488124891249012491124921249312494124951249612497124981249912500125011250212503125041250512506125071250812509125101251112512125131251412515125161251712518125191252012521125221252312524125251252612527125281252912530125311253212533125341253512536125371253812539125401254112542125431254412545125461254712548125491255012551125521255312554125551255612557125581255912560125611256212563125641256512566125671256812569125701257112572125731257412575125761257712578125791258012581125821258312584125851258612587125881258912590125911259212593125941259512596125971259812599126001260112602126031260412605126061260712608126091261012611126121261312614126151261612617126181261912620126211262212623126241262512626126271262812629126301263112632126331263412635126361263712638126391264012641126421264312644126451264612647126481264912650126511265212653126541265512656126571265812659126601266112662126631266412665126661266712668126691267012671126721267312674126751267612677126781267912680126811268212683126841268512686126871268812689126901269112692126931269412695126961269712698126991270012701127021270312704127051270612707127081270912710127111271212713127141271512716127171271812719127201272112722127231272412725127261272712728127291273012731127321273312734127351273612737127381273912740127411274212743127441274512746127471274812749127501275112752127531275412755127561275712758127591276012761127621276312764127651276612767127681276912770127711277212773127741277512776127771277812779127801278112782127831278412785127861278712788127891279012791127921279312794127951279612797127981279912800128011280212803128041280512806128071280812809128101281112812128131281412815128161281712818128191282012821128221282312824128251282612827128281282912830128311283212833128341283512836128371283812839128401284112842128431284412845128461284712848128491285012851128521285312854128551285612857128581285912860128611286212863128641286512866128671286812869128701287112872128731287412875128761287712878128791288012881128821288312884128851288612887128881288912890128911289212893128941289512896128971289812899129001290112902129031290412905129061290712908129091291012911129121291312914129151291612917129181291912920129211292212923129241292512926129271292812929129301293112932129331293412935129361293712938129391294012941129421294312944129451294612947129481294912950129511295212953129541295512956129571295812959129601296112962129631296412965129661296712968129691297012971129721297312974129751297612977129781297912980129811298212983129841298512986129871298812989129901299112992129931299412995129961299712998129991300013001130021300313004130051300613007130081300913010130111301213013130141301513016130171301813019130201302113022130231302413025130261302713028130291303013031130321303313034130351303613037130381303913040130411304213043130441304513046130471304813049130501305113052130531305413055130561305713058130591306013061130621306313064130651306613067130681306913070130711307213073130741307513076130771307813079130801308113082130831308413085130861308713088130891309013091130921309313094130951309613097130981309913100131011310213103131041310513106131071310813109131101311113112131131311413115131161311713118131191312013121131221312313124131251312613127131281312913130131311313213133131341313513136131371313813139131401314113142131431314413145131461314713148131491315013151131521315313154131551315613157131581315913160131611316213163131641316513166131671316813169131701317113172131731317413175131761317713178131791318013181131821318313184131851318613187131881318913190131911319213193131941319513196131971319813199132001320113202132031320413205132061320713208132091321013211132121321313214132151321613217132181321913220132211322213223132241322513226132271322813229132301323113232132331323413235132361323713238132391324013241132421324313244132451324613247132481324913250132511325213253132541325513256132571325813259132601326113262132631326413265132661326713268132691327013271132721327313274132751327613277132781327913280132811328213283132841328513286132871328813289132901329113292132931329413295132961329713298132991330013301133021330313304133051330613307133081330913310133111331213313133141331513316133171331813319133201332113322133231332413325133261332713328133291333013331133321333313334133351333613337133381333913340133411334213343133441334513346133471334813349133501335113352133531335413355133561335713358133591336013361133621336313364133651336613367133681336913370133711337213373133741337513376133771337813379133801338113382133831338413385133861338713388133891339013391133921339313394133951339613397133981339913400134011340213403134041340513406134071340813409134101341113412134131341413415134161341713418134191342013421134221342313424134251342613427134281342913430134311343213433134341343513436134371343813439134401344113442134431344413445134461344713448134491345013451134521345313454134551345613457134581345913460134611346213463134641346513466134671346813469134701347113472134731347413475134761347713478134791348013481134821348313484134851348613487134881348913490134911349213493134941349513496134971349813499135001350113502135031350413505135061350713508135091351013511135121351313514135151351613517135181351913520135211352213523135241352513526135271352813529135301353113532135331353413535135361353713538135391354013541135421354313544135451354613547135481354913550135511355213553135541355513556135571355813559135601356113562135631356413565135661356713568135691357013571135721357313574135751357613577135781357913580135811358213583135841358513586135871358813589135901359113592135931359413595135961359713598135991360013601136021360313604136051360613607136081360913610136111361213613136141361513616136171361813619136201362113622136231362413625136261362713628136291363013631136321363313634136351363613637136381363913640136411364213643136441364513646136471364813649136501365113652136531365413655136561365713658136591366013661136621366313664136651366613667136681366913670136711367213673136741367513676136771367813679136801368113682136831368413685136861368713688136891369013691136921369313694136951369613697136981369913700137011370213703137041370513706137071370813709137101371113712137131371413715137161371713718137191372013721137221372313724137251372613727137281372913730137311373213733137341373513736137371373813739137401374113742137431374413745137461374713748137491375013751137521375313754137551375613757137581375913760137611376213763137641376513766137671376813769137701377113772137731377413775137761377713778137791378013781137821378313784137851378613787137881378913790137911379213793137941379513796137971379813799138001380113802138031380413805138061380713808138091381013811138121381313814138151381613817138181381913820138211382213823138241382513826138271382813829138301383113832138331383413835138361383713838138391384013841138421384313844138451384613847138481384913850138511385213853138541385513856138571385813859138601386113862138631386413865138661386713868138691387013871138721387313874138751387613877138781387913880138811388213883138841388513886138871388813889138901389113892138931389413895138961389713898138991390013901139021390313904139051390613907139081390913910139111391213913139141391513916139171391813919139201392113922139231392413925139261392713928139291393013931139321393313934139351393613937139381393913940139411394213943139441394513946139471394813949139501395113952139531395413955139561395713958139591396013961139621396313964139651396613967139681396913970139711397213973139741397513976139771397813979139801398113982139831398413985139861398713988139891399013991139921399313994139951399613997139981399914000140011400214003140041400514006140071400814009140101401114012140131401414015140161401714018140191402014021140221402314024140251402614027140281402914030140311403214033140341403514036140371403814039140401404114042140431404414045140461404714048140491405014051140521405314054140551405614057140581405914060140611406214063140641406514066140671406814069140701407114072140731407414075140761407714078140791408014081140821408314084140851408614087140881408914090140911409214093140941409514096140971409814099141001410114102141031410414105141061410714108141091411014111141121411314114141151411614117141181411914120141211412214123141241412514126141271412814129141301413114132141331413414135141361413714138141391414014141141421414314144141451414614147141481414914150141511415214153141541415514156141571415814159141601416114162141631416414165141661416714168141691417014171141721417314174141751417614177141781417914180141811418214183141841418514186141871418814189141901419114192141931419414195141961419714198141991420014201142021420314204142051420614207142081420914210142111421214213142141421514216142171421814219142201422114222142231422414225142261422714228142291423014231142321423314234142351423614237142381423914240142411424214243142441424514246142471424814249142501425114252142531425414255142561425714258142591426014261142621426314264142651426614267142681426914270142711427214273142741427514276142771427814279142801428114282142831428414285142861428714288142891429014291142921429314294142951429614297142981429914300143011430214303143041430514306143071430814309143101431114312143131431414315143161431714318143191432014321143221432314324143251432614327143281432914330143311433214333143341433514336143371433814339143401434114342143431434414345143461434714348143491435014351143521435314354143551435614357143581435914360143611436214363143641436514366143671436814369143701437114372143731437414375143761437714378143791438014381143821438314384143851438614387143881438914390143911439214393143941439514396143971439814399144001440114402144031440414405144061440714408144091441014411144121441314414144151441614417144181441914420144211442214423144241442514426144271442814429144301443114432144331443414435144361443714438144391444014441144421444314444144451444614447144481444914450144511445214453144541445514456144571445814459144601446114462144631446414465144661446714468144691447014471144721447314474144751447614477144781447914480144811448214483144841448514486144871448814489144901449114492144931449414495144961449714498144991450014501145021450314504145051450614507145081450914510145111451214513145141451514516145171451814519145201452114522145231452414525145261452714528145291453014531145321453314534145351453614537145381453914540145411454214543145441454514546145471454814549145501455114552145531455414555145561455714558145591456014561145621456314564145651456614567145681456914570145711457214573145741457514576145771457814579145801458114582145831458414585145861458714588145891459014591145921459314594145951459614597145981459914600146011460214603146041460514606146071460814609146101461114612146131461414615146161461714618146191462014621146221462314624146251462614627146281462914630146311463214633146341463514636146371463814639146401464114642146431464414645146461464714648146491465014651146521465314654146551465614657146581465914660146611466214663146641466514666146671466814669146701467114672146731467414675146761467714678146791468014681146821468314684146851468614687146881468914690146911469214693146941469514696146971469814699147001470114702147031470414705147061470714708147091471014711147121471314714147151471614717147181471914720147211472214723147241472514726147271472814729147301473114732147331473414735147361473714738147391474014741147421474314744147451474614747147481474914750147511475214753147541475514756147571475814759147601476114762147631476414765147661476714768147691477014771147721477314774147751477614777147781477914780147811478214783147841478514786147871478814789147901479114792147931479414795147961479714798147991480014801148021480314804148051480614807148081480914810148111481214813148141481514816148171481814819148201482114822148231482414825148261482714828148291483014831148321483314834148351483614837148381483914840148411484214843148441484514846148471484814849148501485114852148531485414855148561485714858148591486014861148621486314864148651486614867148681486914870148711487214873148741487514876148771487814879148801488114882148831488414885148861488714888148891489014891148921489314894148951489614897148981489914900149011490214903149041490514906149071490814909149101491114912149131491414915149161491714918149191492014921149221492314924149251492614927149281492914930149311493214933149341493514936149371493814939149401494114942149431494414945149461494714948149491495014951149521495314954149551495614957149581495914960149611496214963149641496514966149671496814969149701497114972149731497414975149761497714978149791498014981149821498314984149851498614987149881498914990149911499214993149941499514996149971499814999150001500115002150031500415005150061500715008150091501015011150121501315014150151501615017150181501915020150211502215023150241502515026150271502815029150301503115032150331503415035150361503715038150391504015041150421504315044150451504615047150481504915050150511505215053150541505515056150571505815059150601506115062150631506415065150661506715068150691507015071150721507315074150751507615077150781507915080150811508215083150841508515086150871508815089150901509115092150931509415095150961509715098150991510015101151021510315104151051510615107151081510915110151111511215113151141511515116151171511815119151201512115122151231512415125151261512715128151291513015131151321513315134151351513615137151381513915140151411514215143151441514515146151471514815149151501515115152151531515415155151561515715158151591516015161151621516315164151651516615167151681516915170151711517215173151741517515176151771517815179151801518115182151831518415185151861518715188151891519015191151921519315194151951519615197151981519915200152011520215203152041520515206152071520815209152101521115212152131521415215152161521715218152191522015221152221522315224152251522615227152281522915230152311523215233152341523515236152371523815239152401524115242152431524415245152461524715248152491525015251152521525315254152551525615257152581525915260152611526215263152641526515266152671526815269152701527115272152731527415275152761527715278152791528015281152821528315284152851528615287152881528915290152911529215293152941529515296152971529815299153001530115302153031530415305153061530715308153091531015311153121531315314153151531615317153181531915320153211532215323153241532515326153271532815329153301533115332153331533415335153361533715338153391534015341153421534315344153451534615347153481534915350153511535215353153541535515356153571535815359153601536115362153631536415365153661536715368153691537015371153721537315374153751537615377153781537915380153811538215383153841538515386153871538815389153901539115392153931539415395153961539715398153991540015401154021540315404154051540615407154081540915410154111541215413154141541515416154171541815419154201542115422154231542415425154261542715428154291543015431154321543315434154351543615437154381543915440154411544215443154441544515446154471544815449154501545115452154531545415455154561545715458154591546015461154621546315464154651546615467154681546915470154711547215473154741547515476154771547815479154801548115482154831548415485154861548715488154891549015491154921549315494154951549615497154981549915500155011550215503155041550515506155071550815509155101551115512155131551415515155161551715518155191552015521155221552315524155251552615527155281552915530155311553215533155341553515536155371553815539155401554115542155431554415545155461554715548155491555015551155521555315554155551555615557155581555915560155611556215563155641556515566155671556815569155701557115572155731557415575155761557715578155791558015581155821558315584155851558615587155881558915590155911559215593155941559515596155971559815599156001560115602156031560415605156061560715608156091561015611156121561315614156151561615617156181561915620156211562215623156241562515626156271562815629156301563115632156331563415635156361563715638156391564015641156421564315644156451564615647156481564915650156511565215653156541565515656156571565815659156601566115662156631566415665156661566715668156691567015671156721567315674156751567615677156781567915680156811568215683156841568515686156871568815689156901569115692156931569415695156961569715698156991570015701157021570315704157051570615707157081570915710157111571215713157141571515716157171571815719157201572115722157231572415725157261572715728157291573015731157321573315734157351573615737157381573915740157411574215743157441574515746157471574815749157501575115752157531575415755157561575715758157591576015761157621576315764157651576615767157681576915770157711577215773157741577515776157771577815779157801578115782157831578415785157861578715788157891579015791157921579315794157951579615797157981579915800158011580215803158041580515806158071580815809158101581115812158131581415815158161581715818158191582015821158221582315824158251582615827158281582915830158311583215833158341583515836158371583815839158401584115842158431584415845158461584715848158491585015851158521585315854 |
- /* aes_gcm_asm.S */
- /*
- * Copyright (C) 2006-2024 wolfSSL Inc.
- *
- * This file is part of wolfSSL.
- *
- * wolfSSL is free software; you can redistribute it and/or modify
- * it under the terms of the GNU General Public License as published by
- * the Free Software Foundation; either version 2 of the License, or
- * (at your option) any later version.
- *
- * wolfSSL is distributed in the hope that it will be useful,
- * but WITHOUT ANY WARRANTY; without even the implied warranty of
- * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
- * GNU General Public License for more details.
- *
- * You should have received a copy of the GNU General Public License
- * along with this program; if not, write to the Free Software
- * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1335, USA
- */
- #ifdef WOLFSSL_USER_SETTINGS
- #ifdef WOLFSSL_USER_SETTINGS_ASM
- /*
- * user_settings_asm.h is a file generated by the script user_settings_asm.sh.
- * The script takes in a user_settings.h and produces user_settings_asm.h, which
- * is a stripped down version of user_settings.h containing only preprocessor
- * directives. This makes the header safe to include in assembly (.S) files.
- */
- #include "user_settings_asm.h"
- #else
- /*
- * Note: if user_settings.h contains any C code (e.g. a typedef or function
- * prototype), including it here in an assembly (.S) file will cause an
- * assembler failure. See user_settings_asm.h above.
- */
- #include "user_settings.h"
- #endif /* WOLFSSL_USER_SETTINGS_ASM */
- #endif /* WOLFSSL_USER_SETTINGS */
- #ifndef HAVE_INTEL_AVX1
- #define HAVE_INTEL_AVX1
- #endif /* HAVE_INTEL_AVX1 */
- #ifndef NO_AVX2_SUPPORT
- #define HAVE_INTEL_AVX2
- #endif /* NO_AVX2_SUPPORT */
- #ifdef WOLFSSL_X86_64_BUILD
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_one:
- .quad 0x0, 0x1
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_two:
- .quad 0x0, 0x2
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_three:
- .quad 0x0, 0x3
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_four:
- .quad 0x0, 0x4
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_five:
- .quad 0x0, 0x5
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_six:
- .quad 0x0, 0x6
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_seven:
- .quad 0x0, 0x7
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_eight:
- .quad 0x0, 0x8
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_bswap_epi64:
- .quad 0x1020304050607, 0x8090a0b0c0d0e0f
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_bswap_mask:
- .quad 0x8090a0b0c0d0e0f, 0x1020304050607
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_aes_gcm_mod2_128:
- .quad 0x1, 0xc200000000000000
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_aesni
- .type AES_GCM_encrypt_aesni,@function
- .align 16
- AES_GCM_encrypt_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_aesni
- .p2align 4
- _AES_GCM_encrypt_aesni:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %rbx
- pushq %r14
- pushq %r15
- movq %rdx, %r12
- movq %rcx, %rax
- movl 48(%rsp), %r11d
- movl 56(%rsp), %ebx
- movl 64(%rsp), %r14d
- movq 72(%rsp), %r15
- movl 80(%rsp), %r10d
- subq $0xa0, %rsp
- pxor %xmm4, %xmm4
- pxor %xmm6, %xmm6
- cmpl $12, %ebx
- movl %ebx, %edx
- jne L_AES_GCM_encrypt_aesni_iv_not_12
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- movl $0x1000000, %ecx
- pinsrq $0x00, (%rax), %xmm4
- pinsrd $2, 8(%rax), %xmm4
- pinsrd $3, %ecx, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- movdqa %xmm4, %xmm1
- movdqa (%r15), %xmm5
- pxor %xmm5, %xmm1
- movdqa 16(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 32(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 48(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 64(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 80(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 96(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 112(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 128(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 144(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm7
- jl L_AES_GCM_encrypt_aesni_calc_iv_12_last
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 176(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm7
- jl L_AES_GCM_encrypt_aesni_calc_iv_12_last
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 208(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 224(%r15), %xmm7
- L_AES_GCM_encrypt_aesni_calc_iv_12_last:
- aesenclast %xmm7, %xmm5
- aesenclast %xmm7, %xmm1
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
- movdqu %xmm1, 144(%rsp)
- jmp L_AES_GCM_encrypt_aesni_iv_done
- L_AES_GCM_encrypt_aesni_iv_not_12:
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- movdqa (%r15), %xmm5
- aesenc 16(%r15), %xmm5
- aesenc 32(%r15), %xmm5
- aesenc 48(%r15), %xmm5
- aesenc 64(%r15), %xmm5
- aesenc 80(%r15), %xmm5
- aesenc 96(%r15), %xmm5
- aesenc 112(%r15), %xmm5
- aesenc 128(%r15), %xmm5
- aesenc 144(%r15), %xmm5
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_calc_iv_1_aesenc_avx_last
- aesenc %xmm9, %xmm5
- aesenc 176(%r15), %xmm5
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_calc_iv_1_aesenc_avx_last
- aesenc %xmm9, %xmm5
- aesenc 208(%r15), %xmm5
- movdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_aesni_calc_iv_1_aesenc_avx_last:
- aesenclast %xmm9, %xmm5
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_encrypt_aesni_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_encrypt_aesni_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_encrypt_aesni_calc_iv_16_loop:
- movdqu (%rax,%rcx,1), %xmm8
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm7
- por %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_aesni_calc_iv_16_loop
- movl %ebx, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_encrypt_aesni_calc_iv_done
- L_AES_GCM_encrypt_aesni_calc_iv_lt16:
- subq $16, %rsp
- pxor %xmm8, %xmm8
- xorl %ebx, %ebx
- movdqu %xmm8, (%rsp)
- L_AES_GCM_encrypt_aesni_calc_iv_loop:
- movzbl (%rax,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_aesni_calc_iv_loop
- movdqu (%rsp), %xmm8
- addq $16, %rsp
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm7
- por %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm4
- L_AES_GCM_encrypt_aesni_calc_iv_done:
- # T = Encrypt counter
- pxor %xmm0, %xmm0
- shll $3, %edx
- pinsrq $0x00, %rdx, %xmm0
- pxor %xmm0, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm7
- por %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
- # Encrypt counter
- movdqa (%r15), %xmm8
- pxor %xmm4, %xmm8
- aesenc 16(%r15), %xmm8
- aesenc 32(%r15), %xmm8
- aesenc 48(%r15), %xmm8
- aesenc 64(%r15), %xmm8
- aesenc 80(%r15), %xmm8
- aesenc 96(%r15), %xmm8
- aesenc 112(%r15), %xmm8
- aesenc 128(%r15), %xmm8
- aesenc 144(%r15), %xmm8
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_calc_iv_2_aesenc_avx_last
- aesenc %xmm9, %xmm8
- aesenc 176(%r15), %xmm8
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_calc_iv_2_aesenc_avx_last
- aesenc %xmm9, %xmm8
- aesenc 208(%r15), %xmm8
- movdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_aesni_calc_iv_2_aesenc_avx_last:
- aesenclast %xmm9, %xmm8
- movdqu %xmm8, 144(%rsp)
- L_AES_GCM_encrypt_aesni_iv_done:
- # Additional authentication data
- movl %r11d, %edx
- cmpl $0x00, %edx
- je L_AES_GCM_encrypt_aesni_calc_aad_done
- xorl %ecx, %ecx
- cmpl $16, %edx
- jl L_AES_GCM_encrypt_aesni_calc_aad_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_encrypt_aesni_calc_aad_16_loop:
- movdqu (%r12,%rcx,1), %xmm8
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm6
- pshufd $0x4e, %xmm6, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm6, %xmm3
- pclmulqdq $0x00, %xmm6, %xmm0
- pxor %xmm6, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm6
- movdqa %xmm7, %xmm0
- movdqa %xmm6, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm6
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm6
- por %xmm0, %xmm7
- por %xmm1, %xmm6
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm6
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_aesni_calc_aad_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_encrypt_aesni_calc_aad_done
- L_AES_GCM_encrypt_aesni_calc_aad_lt16:
- subq $16, %rsp
- pxor %xmm8, %xmm8
- xorl %ebx, %ebx
- movdqu %xmm8, (%rsp)
- L_AES_GCM_encrypt_aesni_calc_aad_loop:
- movzbl (%r12,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_aesni_calc_aad_loop
- movdqu (%rsp), %xmm8
- addq $16, %rsp
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm6
- pshufd $0x4e, %xmm6, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm6, %xmm3
- pclmulqdq $0x00, %xmm6, %xmm0
- pxor %xmm6, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm6
- movdqa %xmm7, %xmm0
- movdqa %xmm6, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm6
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm6
- por %xmm0, %xmm7
- por %xmm1, %xmm6
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm6
- L_AES_GCM_encrypt_aesni_calc_aad_done:
- # Calculate counter and H
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
- movdqa %xmm5, %xmm9
- paddd L_aes_gcm_one(%rip), %xmm4
- movdqa %xmm5, %xmm8
- movdqu %xmm4, 128(%rsp)
- psrlq $63, %xmm9
- psllq $0x01, %xmm8
- pslldq $8, %xmm9
- por %xmm9, %xmm8
- pshufd $0xff, %xmm5, %xmm5
- psrad $31, %xmm5
- pand L_aes_gcm_mod2_128(%rip), %xmm5
- pxor %xmm8, %xmm5
- xorq %rbx, %rbx
- cmpl $0x80, %r9d
- movl %r9d, %r13d
- jl L_AES_GCM_encrypt_aesni_done_128
- andl $0xffffff80, %r13d
- movdqa %xmm6, %xmm2
- # H ^ 1
- movdqu %xmm5, (%rsp)
- # H ^ 2
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm5, %xmm10
- movdqa %xmm5, %xmm11
- movdqa %xmm5, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm5, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm0
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm0
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm0
- movdqu %xmm0, 16(%rsp)
- # H ^ 3
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm0, %xmm10
- movdqa %xmm0, %xmm11
- movdqa %xmm0, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm0, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm1
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm1
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm1
- movdqu %xmm1, 32(%rsp)
- # H ^ 4
- pshufd $0x4e, %xmm0, %xmm9
- pshufd $0x4e, %xmm0, %xmm10
- movdqa %xmm0, %xmm11
- movdqa %xmm0, %xmm8
- pclmulqdq $0x11, %xmm0, %xmm11
- pclmulqdq $0x00, %xmm0, %xmm8
- pxor %xmm0, %xmm9
- pxor %xmm0, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm3
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm3
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm3
- movdqu %xmm3, 48(%rsp)
- # H ^ 5
- pshufd $0x4e, %xmm0, %xmm9
- pshufd $0x4e, %xmm1, %xmm10
- movdqa %xmm1, %xmm11
- movdqa %xmm1, %xmm8
- pclmulqdq $0x11, %xmm0, %xmm11
- pclmulqdq $0x00, %xmm0, %xmm8
- pxor %xmm0, %xmm9
- pxor %xmm1, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 64(%rsp)
- # H ^ 6
- pshufd $0x4e, %xmm1, %xmm9
- pshufd $0x4e, %xmm1, %xmm10
- movdqa %xmm1, %xmm11
- movdqa %xmm1, %xmm8
- pclmulqdq $0x11, %xmm1, %xmm11
- pclmulqdq $0x00, %xmm1, %xmm8
- pxor %xmm1, %xmm9
- pxor %xmm1, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 80(%rsp)
- # H ^ 7
- pshufd $0x4e, %xmm1, %xmm9
- pshufd $0x4e, %xmm3, %xmm10
- movdqa %xmm3, %xmm11
- movdqa %xmm3, %xmm8
- pclmulqdq $0x11, %xmm1, %xmm11
- pclmulqdq $0x00, %xmm1, %xmm8
- pxor %xmm1, %xmm9
- pxor %xmm3, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 96(%rsp)
- # H ^ 8
- pshufd $0x4e, %xmm3, %xmm9
- pshufd $0x4e, %xmm3, %xmm10
- movdqa %xmm3, %xmm11
- movdqa %xmm3, %xmm8
- pclmulqdq $0x11, %xmm3, %xmm11
- pclmulqdq $0x00, %xmm3, %xmm8
- pxor %xmm3, %xmm9
- pxor %xmm3, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 112(%rsp)
- # First 128 bytes of input
- movdqu 128(%rsp), %xmm8
- movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
- movdqa %xmm8, %xmm0
- pshufb %xmm1, %xmm8
- movdqa %xmm0, %xmm9
- paddd L_aes_gcm_one(%rip), %xmm9
- pshufb %xmm1, %xmm9
- movdqa %xmm0, %xmm10
- paddd L_aes_gcm_two(%rip), %xmm10
- pshufb %xmm1, %xmm10
- movdqa %xmm0, %xmm11
- paddd L_aes_gcm_three(%rip), %xmm11
- pshufb %xmm1, %xmm11
- movdqa %xmm0, %xmm12
- paddd L_aes_gcm_four(%rip), %xmm12
- pshufb %xmm1, %xmm12
- movdqa %xmm0, %xmm13
- paddd L_aes_gcm_five(%rip), %xmm13
- pshufb %xmm1, %xmm13
- movdqa %xmm0, %xmm14
- paddd L_aes_gcm_six(%rip), %xmm14
- pshufb %xmm1, %xmm14
- movdqa %xmm0, %xmm15
- paddd L_aes_gcm_seven(%rip), %xmm15
- pshufb %xmm1, %xmm15
- paddd L_aes_gcm_eight(%rip), %xmm0
- movdqa (%r15), %xmm7
- movdqu %xmm0, 128(%rsp)
- pxor %xmm7, %xmm8
- pxor %xmm7, %xmm9
- pxor %xmm7, %xmm10
- pxor %xmm7, %xmm11
- pxor %xmm7, %xmm12
- pxor %xmm7, %xmm13
- pxor %xmm7, %xmm14
- pxor %xmm7, %xmm15
- movdqa 16(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 32(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 48(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 64(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 80(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 96(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 112(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 128(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 144(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm7
- jl L_AES_GCM_encrypt_aesni_enc_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 176(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm7
- jl L_AES_GCM_encrypt_aesni_enc_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 208(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 224(%r15), %xmm7
- L_AES_GCM_encrypt_aesni_enc_done:
- aesenclast %xmm7, %xmm8
- aesenclast %xmm7, %xmm9
- movdqu (%rdi), %xmm0
- movdqu 16(%rdi), %xmm1
- pxor %xmm0, %xmm8
- pxor %xmm1, %xmm9
- movdqu %xmm8, (%rsi)
- movdqu %xmm9, 16(%rsi)
- aesenclast %xmm7, %xmm10
- aesenclast %xmm7, %xmm11
- movdqu 32(%rdi), %xmm0
- movdqu 48(%rdi), %xmm1
- pxor %xmm0, %xmm10
- pxor %xmm1, %xmm11
- movdqu %xmm10, 32(%rsi)
- movdqu %xmm11, 48(%rsi)
- aesenclast %xmm7, %xmm12
- aesenclast %xmm7, %xmm13
- movdqu 64(%rdi), %xmm0
- movdqu 80(%rdi), %xmm1
- pxor %xmm0, %xmm12
- pxor %xmm1, %xmm13
- movdqu %xmm12, 64(%rsi)
- movdqu %xmm13, 80(%rsi)
- aesenclast %xmm7, %xmm14
- aesenclast %xmm7, %xmm15
- movdqu 96(%rdi), %xmm0
- movdqu 112(%rdi), %xmm1
- pxor %xmm0, %xmm14
- pxor %xmm1, %xmm15
- movdqu %xmm14, 96(%rsi)
- movdqu %xmm15, 112(%rsi)
- cmpl $0x80, %r13d
- movl $0x80, %ebx
- jle L_AES_GCM_encrypt_aesni_end_128
- # More 128 bytes of input
- L_AES_GCM_encrypt_aesni_ghash_128:
- leaq (%rdi,%rbx,1), %rcx
- leaq (%rsi,%rbx,1), %rdx
- movdqu 128(%rsp), %xmm8
- movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
- movdqa %xmm8, %xmm0
- pshufb %xmm1, %xmm8
- movdqa %xmm0, %xmm9
- paddd L_aes_gcm_one(%rip), %xmm9
- pshufb %xmm1, %xmm9
- movdqa %xmm0, %xmm10
- paddd L_aes_gcm_two(%rip), %xmm10
- pshufb %xmm1, %xmm10
- movdqa %xmm0, %xmm11
- paddd L_aes_gcm_three(%rip), %xmm11
- pshufb %xmm1, %xmm11
- movdqa %xmm0, %xmm12
- paddd L_aes_gcm_four(%rip), %xmm12
- pshufb %xmm1, %xmm12
- movdqa %xmm0, %xmm13
- paddd L_aes_gcm_five(%rip), %xmm13
- pshufb %xmm1, %xmm13
- movdqa %xmm0, %xmm14
- paddd L_aes_gcm_six(%rip), %xmm14
- pshufb %xmm1, %xmm14
- movdqa %xmm0, %xmm15
- paddd L_aes_gcm_seven(%rip), %xmm15
- pshufb %xmm1, %xmm15
- paddd L_aes_gcm_eight(%rip), %xmm0
- movdqa (%r15), %xmm7
- movdqu %xmm0, 128(%rsp)
- pxor %xmm7, %xmm8
- pxor %xmm7, %xmm9
- pxor %xmm7, %xmm10
- pxor %xmm7, %xmm11
- pxor %xmm7, %xmm12
- pxor %xmm7, %xmm13
- pxor %xmm7, %xmm14
- pxor %xmm7, %xmm15
- movdqu 112(%rsp), %xmm7
- movdqu -128(%rdx), %xmm0
- aesenc 16(%r15), %xmm8
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- pxor %xmm2, %xmm0
- pshufd $0x4e, %xmm7, %xmm1
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm7, %xmm1
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm3
- pclmulqdq $0x11, %xmm7, %xmm3
- aesenc 16(%r15), %xmm9
- aesenc 16(%r15), %xmm10
- movdqa %xmm0, %xmm2
- pclmulqdq $0x00, %xmm7, %xmm2
- aesenc 16(%r15), %xmm11
- aesenc 16(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm1
- aesenc 16(%r15), %xmm13
- aesenc 16(%r15), %xmm14
- aesenc 16(%r15), %xmm15
- pxor %xmm2, %xmm1
- pxor %xmm3, %xmm1
- movdqu 96(%rsp), %xmm7
- movdqu -112(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 32(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 32(%r15), %xmm9
- aesenc 32(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 32(%r15), %xmm11
- aesenc 32(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 32(%r15), %xmm13
- aesenc 32(%r15), %xmm14
- aesenc 32(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 80(%rsp), %xmm7
- movdqu -96(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 48(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 48(%r15), %xmm9
- aesenc 48(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 48(%r15), %xmm11
- aesenc 48(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 48(%r15), %xmm13
- aesenc 48(%r15), %xmm14
- aesenc 48(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 64(%rsp), %xmm7
- movdqu -80(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 64(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 64(%r15), %xmm9
- aesenc 64(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 64(%r15), %xmm11
- aesenc 64(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 64(%r15), %xmm13
- aesenc 64(%r15), %xmm14
- aesenc 64(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 48(%rsp), %xmm7
- movdqu -64(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 80(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 80(%r15), %xmm9
- aesenc 80(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 80(%r15), %xmm11
- aesenc 80(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 80(%r15), %xmm13
- aesenc 80(%r15), %xmm14
- aesenc 80(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 32(%rsp), %xmm7
- movdqu -48(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 96(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 96(%r15), %xmm9
- aesenc 96(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 96(%r15), %xmm11
- aesenc 96(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 96(%r15), %xmm13
- aesenc 96(%r15), %xmm14
- aesenc 96(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 16(%rsp), %xmm7
- movdqu -32(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 112(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 112(%r15), %xmm9
- aesenc 112(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 112(%r15), %xmm11
- aesenc 112(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 112(%r15), %xmm13
- aesenc 112(%r15), %xmm14
- aesenc 112(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu (%rsp), %xmm7
- movdqu -16(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 128(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 128(%r15), %xmm9
- aesenc 128(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 128(%r15), %xmm11
- aesenc 128(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 128(%r15), %xmm13
- aesenc 128(%r15), %xmm14
- aesenc 128(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqa %xmm1, %xmm5
- psrldq $8, %xmm1
- pslldq $8, %xmm5
- aesenc 144(%r15), %xmm8
- pxor %xmm5, %xmm2
- pxor %xmm1, %xmm3
- movdqa %xmm2, %xmm7
- movdqa %xmm2, %xmm4
- movdqa %xmm2, %xmm5
- aesenc 144(%r15), %xmm9
- pslld $31, %xmm7
- pslld $30, %xmm4
- pslld $25, %xmm5
- aesenc 144(%r15), %xmm10
- pxor %xmm4, %xmm7
- pxor %xmm5, %xmm7
- aesenc 144(%r15), %xmm11
- movdqa %xmm7, %xmm4
- pslldq $12, %xmm7
- psrldq $4, %xmm4
- aesenc 144(%r15), %xmm12
- pxor %xmm7, %xmm2
- movdqa %xmm2, %xmm5
- movdqa %xmm2, %xmm1
- movdqa %xmm2, %xmm0
- aesenc 144(%r15), %xmm13
- psrld $0x01, %xmm5
- psrld $2, %xmm1
- psrld $7, %xmm0
- aesenc 144(%r15), %xmm14
- pxor %xmm1, %xmm5
- pxor %xmm0, %xmm5
- aesenc 144(%r15), %xmm15
- pxor %xmm4, %xmm5
- pxor %xmm5, %xmm2
- pxor %xmm3, %xmm2
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm7
- jl L_AES_GCM_encrypt_aesni_aesenc_128_ghash_avx_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 176(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm7
- jl L_AES_GCM_encrypt_aesni_aesenc_128_ghash_avx_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 208(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 224(%r15), %xmm7
- L_AES_GCM_encrypt_aesni_aesenc_128_ghash_avx_done:
- aesenclast %xmm7, %xmm8
- aesenclast %xmm7, %xmm9
- movdqu (%rcx), %xmm0
- movdqu 16(%rcx), %xmm1
- pxor %xmm0, %xmm8
- pxor %xmm1, %xmm9
- movdqu %xmm8, (%rdx)
- movdqu %xmm9, 16(%rdx)
- aesenclast %xmm7, %xmm10
- aesenclast %xmm7, %xmm11
- movdqu 32(%rcx), %xmm0
- movdqu 48(%rcx), %xmm1
- pxor %xmm0, %xmm10
- pxor %xmm1, %xmm11
- movdqu %xmm10, 32(%rdx)
- movdqu %xmm11, 48(%rdx)
- aesenclast %xmm7, %xmm12
- aesenclast %xmm7, %xmm13
- movdqu 64(%rcx), %xmm0
- movdqu 80(%rcx), %xmm1
- pxor %xmm0, %xmm12
- pxor %xmm1, %xmm13
- movdqu %xmm12, 64(%rdx)
- movdqu %xmm13, 80(%rdx)
- aesenclast %xmm7, %xmm14
- aesenclast %xmm7, %xmm15
- movdqu 96(%rcx), %xmm0
- movdqu 112(%rcx), %xmm1
- pxor %xmm0, %xmm14
- pxor %xmm1, %xmm15
- movdqu %xmm14, 96(%rdx)
- movdqu %xmm15, 112(%rdx)
- addl $0x80, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_encrypt_aesni_ghash_128
- L_AES_GCM_encrypt_aesni_end_128:
- movdqa L_aes_gcm_bswap_mask(%rip), %xmm4
- pshufb %xmm4, %xmm8
- pshufb %xmm4, %xmm9
- pshufb %xmm4, %xmm10
- pshufb %xmm4, %xmm11
- pxor %xmm2, %xmm8
- pshufb %xmm4, %xmm12
- pshufb %xmm4, %xmm13
- pshufb %xmm4, %xmm14
- pshufb %xmm4, %xmm15
- movdqu 112(%rsp), %xmm7
- pshufd $0x4e, %xmm8, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm8, %xmm3
- pclmulqdq $0x00, %xmm8, %xmm0
- pxor %xmm8, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm4
- movdqa %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 96(%rsp), %xmm7
- pshufd $0x4e, %xmm9, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm9, %xmm3
- pclmulqdq $0x00, %xmm9, %xmm0
- pxor %xmm9, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 80(%rsp), %xmm7
- pshufd $0x4e, %xmm10, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm10, %xmm3
- pclmulqdq $0x00, %xmm10, %xmm0
- pxor %xmm10, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 64(%rsp), %xmm7
- pshufd $0x4e, %xmm11, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm11, %xmm3
- pclmulqdq $0x00, %xmm11, %xmm0
- pxor %xmm11, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 48(%rsp), %xmm7
- pshufd $0x4e, %xmm12, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm12, %xmm3
- pclmulqdq $0x00, %xmm12, %xmm0
- pxor %xmm12, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 32(%rsp), %xmm7
- pshufd $0x4e, %xmm13, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm13, %xmm3
- pclmulqdq $0x00, %xmm13, %xmm0
- pxor %xmm13, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 16(%rsp), %xmm7
- pshufd $0x4e, %xmm14, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm14, %xmm3
- pclmulqdq $0x00, %xmm14, %xmm0
- pxor %xmm14, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu (%rsp), %xmm7
- pshufd $0x4e, %xmm15, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm15, %xmm3
- pclmulqdq $0x00, %xmm15, %xmm0
- pxor %xmm15, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqa %xmm4, %xmm0
- movdqa %xmm4, %xmm1
- movdqa %xmm4, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm4
- movdqa %xmm4, %xmm2
- movdqa %xmm4, %xmm3
- movdqa %xmm4, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm4, %xmm2
- pxor %xmm2, %xmm6
- movdqu (%rsp), %xmm5
- L_AES_GCM_encrypt_aesni_done_128:
- movl %r9d, %edx
- cmpl %edx, %ebx
- jge L_AES_GCM_encrypt_aesni_done_enc
- movl %r9d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %ebx
- jge L_AES_GCM_encrypt_aesni_last_block_done
- leaq (%rdi,%rbx,1), %rcx
- leaq (%rsi,%rbx,1), %rdx
- movdqu 128(%rsp), %xmm8
- movdqa %xmm8, %xmm9
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
- paddd L_aes_gcm_one(%rip), %xmm9
- pxor (%r15), %xmm8
- movdqu %xmm9, 128(%rsp)
- aesenc 16(%r15), %xmm8
- aesenc 32(%r15), %xmm8
- aesenc 48(%r15), %xmm8
- aesenc 64(%r15), %xmm8
- aesenc 80(%r15), %xmm8
- aesenc 96(%r15), %xmm8
- aesenc 112(%r15), %xmm8
- aesenc 128(%r15), %xmm8
- aesenc 144(%r15), %xmm8
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_aesenc_block_aesenc_avx_last
- aesenc %xmm9, %xmm8
- aesenc 176(%r15), %xmm8
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_aesenc_block_aesenc_avx_last
- aesenc %xmm9, %xmm8
- aesenc 208(%r15), %xmm8
- movdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_aesni_aesenc_block_aesenc_avx_last:
- aesenclast %xmm9, %xmm8
- movdqu (%rcx), %xmm9
- pxor %xmm9, %xmm8
- movdqu %xmm8, (%rdx)
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm6
- addl $16, %ebx
- cmpl %r13d, %ebx
- jge L_AES_GCM_encrypt_aesni_last_block_ghash
- L_AES_GCM_encrypt_aesni_last_block_start:
- leaq (%rdi,%rbx,1), %rcx
- leaq (%rsi,%rbx,1), %rdx
- movdqu 128(%rsp), %xmm8
- movdqa %xmm8, %xmm9
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
- paddd L_aes_gcm_one(%rip), %xmm9
- pxor (%r15), %xmm8
- movdqu %xmm9, 128(%rsp)
- movdqa %xmm6, %xmm10
- pclmulqdq $16, %xmm5, %xmm10
- aesenc 16(%r15), %xmm8
- aesenc 32(%r15), %xmm8
- movdqa %xmm6, %xmm11
- pclmulqdq $0x01, %xmm5, %xmm11
- aesenc 48(%r15), %xmm8
- aesenc 64(%r15), %xmm8
- movdqa %xmm6, %xmm12
- pclmulqdq $0x00, %xmm5, %xmm12
- aesenc 80(%r15), %xmm8
- movdqa %xmm6, %xmm1
- pclmulqdq $0x11, %xmm5, %xmm1
- aesenc 96(%r15), %xmm8
- pxor %xmm11, %xmm10
- movdqa %xmm10, %xmm2
- psrldq $8, %xmm10
- pslldq $8, %xmm2
- aesenc 112(%r15), %xmm8
- movdqa %xmm1, %xmm3
- pxor %xmm12, %xmm2
- pxor %xmm10, %xmm3
- movdqa L_aes_gcm_mod2_128(%rip), %xmm0
- movdqa %xmm2, %xmm11
- pclmulqdq $16, %xmm0, %xmm11
- aesenc 128(%r15), %xmm8
- pshufd $0x4e, %xmm2, %xmm10
- pxor %xmm11, %xmm10
- movdqa %xmm10, %xmm11
- pclmulqdq $16, %xmm0, %xmm11
- aesenc 144(%r15), %xmm8
- pshufd $0x4e, %xmm10, %xmm6
- pxor %xmm11, %xmm6
- pxor %xmm3, %xmm6
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_aesenc_gfmul_last
- aesenc %xmm9, %xmm8
- aesenc 176(%r15), %xmm8
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_aesenc_gfmul_last
- aesenc %xmm9, %xmm8
- aesenc 208(%r15), %xmm8
- movdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_aesni_aesenc_gfmul_last:
- aesenclast %xmm9, %xmm8
- movdqu (%rcx), %xmm9
- pxor %xmm9, %xmm8
- movdqu %xmm8, (%rdx)
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm6
- addl $16, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_encrypt_aesni_last_block_start
- L_AES_GCM_encrypt_aesni_last_block_ghash:
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm6, %xmm10
- movdqa %xmm6, %xmm11
- movdqa %xmm6, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm6, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm6
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm6
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm6
- L_AES_GCM_encrypt_aesni_last_block_done:
- movl %r9d, %ecx
- movl %ecx, %edx
- andl $15, %ecx
- jz L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_done
- movdqu 128(%rsp), %xmm4
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
- pxor (%r15), %xmm4
- aesenc 16(%r15), %xmm4
- aesenc 32(%r15), %xmm4
- aesenc 48(%r15), %xmm4
- aesenc 64(%r15), %xmm4
- aesenc 80(%r15), %xmm4
- aesenc 96(%r15), %xmm4
- aesenc 112(%r15), %xmm4
- aesenc 128(%r15), %xmm4
- aesenc 144(%r15), %xmm4
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_aesenc_avx_last
- aesenc %xmm9, %xmm4
- aesenc 176(%r15), %xmm4
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_aesenc_avx_last
- aesenc %xmm9, %xmm4
- aesenc 208(%r15), %xmm4
- movdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_aesenc_avx_last:
- aesenclast %xmm9, %xmm4
- subq $16, %rsp
- xorl %ecx, %ecx
- movdqu %xmm4, (%rsp)
- L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_loop:
- movzbl (%rdi,%rbx,1), %r13d
- xorb (%rsp,%rcx,1), %r13b
- movb %r13b, (%rsi,%rbx,1)
- movb %r13b, (%rsp,%rcx,1)
- incl %ebx
- incl %ecx
- cmpl %edx, %ebx
- jl L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_loop
- xorq %r13, %r13
- cmpl $16, %ecx
- je L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_finish_enc
- L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_byte_loop:
- movb %r13b, (%rsp,%rcx,1)
- incl %ecx
- cmpl $16, %ecx
- jl L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_byte_loop
- L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_finish_enc:
- movdqu (%rsp), %xmm4
- addq $16, %rsp
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
- pxor %xmm4, %xmm6
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm6, %xmm10
- movdqa %xmm6, %xmm11
- movdqa %xmm6, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm6, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm6
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm6
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm6
- L_AES_GCM_encrypt_aesni_aesenc_last15_enc_avx_done:
- L_AES_GCM_encrypt_aesni_done_enc:
- movl %r9d, %edx
- movl %r11d, %ecx
- shlq $3, %rdx
- shlq $3, %rcx
- pinsrq $0x00, %rdx, %xmm0
- pinsrq $0x01, %rcx, %xmm0
- pxor %xmm0, %xmm6
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm6, %xmm10
- movdqa %xmm6, %xmm11
- movdqa %xmm6, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm6, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm6
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm6
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm6
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
- movdqu 144(%rsp), %xmm0
- pxor %xmm6, %xmm0
- cmpl $16, %r14d
- je L_AES_GCM_encrypt_aesni_store_tag_16
- xorq %rcx, %rcx
- movdqu %xmm0, (%rsp)
- L_AES_GCM_encrypt_aesni_store_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- movb %r13b, (%r8,%rcx,1)
- incl %ecx
- cmpl %r14d, %ecx
- jne L_AES_GCM_encrypt_aesni_store_tag_loop
- jmp L_AES_GCM_encrypt_aesni_store_tag_done
- L_AES_GCM_encrypt_aesni_store_tag_16:
- movdqu %xmm0, (%r8)
- L_AES_GCM_encrypt_aesni_store_tag_done:
- addq $0xa0, %rsp
- popq %r15
- popq %r14
- popq %rbx
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_aesni,.-AES_GCM_encrypt_aesni
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_aesni
- .type AES_GCM_decrypt_aesni,@function
- .align 16
- AES_GCM_decrypt_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_aesni
- .p2align 4
- _AES_GCM_decrypt_aesni:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %rbx
- pushq %r14
- pushq %r15
- pushq %rbp
- movq %rdx, %r12
- movq %rcx, %rax
- movl 56(%rsp), %r11d
- movl 64(%rsp), %ebx
- movl 72(%rsp), %r14d
- movq 80(%rsp), %r15
- movl 88(%rsp), %r10d
- movq 96(%rsp), %rbp
- subq $0xa8, %rsp
- pxor %xmm4, %xmm4
- pxor %xmm6, %xmm6
- cmpl $12, %ebx
- movl %ebx, %edx
- jne L_AES_GCM_decrypt_aesni_iv_not_12
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- movl $0x1000000, %ecx
- pinsrq $0x00, (%rax), %xmm4
- pinsrd $2, 8(%rax), %xmm4
- pinsrd $3, %ecx, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- movdqa %xmm4, %xmm1
- movdqa (%r15), %xmm5
- pxor %xmm5, %xmm1
- movdqa 16(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 32(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 48(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 64(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 80(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 96(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 112(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 128(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 144(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm7
- jl L_AES_GCM_decrypt_aesni_calc_iv_12_last
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 176(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm7
- jl L_AES_GCM_decrypt_aesni_calc_iv_12_last
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 208(%r15), %xmm7
- aesenc %xmm7, %xmm5
- aesenc %xmm7, %xmm1
- movdqa 224(%r15), %xmm7
- L_AES_GCM_decrypt_aesni_calc_iv_12_last:
- aesenclast %xmm7, %xmm5
- aesenclast %xmm7, %xmm1
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
- movdqu %xmm1, 144(%rsp)
- jmp L_AES_GCM_decrypt_aesni_iv_done
- L_AES_GCM_decrypt_aesni_iv_not_12:
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- movdqa (%r15), %xmm5
- aesenc 16(%r15), %xmm5
- aesenc 32(%r15), %xmm5
- aesenc 48(%r15), %xmm5
- aesenc 64(%r15), %xmm5
- aesenc 80(%r15), %xmm5
- aesenc 96(%r15), %xmm5
- aesenc 112(%r15), %xmm5
- aesenc 128(%r15), %xmm5
- aesenc 144(%r15), %xmm5
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_decrypt_aesni_calc_iv_1_aesenc_avx_last
- aesenc %xmm9, %xmm5
- aesenc 176(%r15), %xmm5
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_decrypt_aesni_calc_iv_1_aesenc_avx_last
- aesenc %xmm9, %xmm5
- aesenc 208(%r15), %xmm5
- movdqa 224(%r15), %xmm9
- L_AES_GCM_decrypt_aesni_calc_iv_1_aesenc_avx_last:
- aesenclast %xmm9, %xmm5
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_decrypt_aesni_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_decrypt_aesni_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_decrypt_aesni_calc_iv_16_loop:
- movdqu (%rax,%rcx,1), %xmm8
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm7
- por %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_aesni_calc_iv_16_loop
- movl %ebx, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_decrypt_aesni_calc_iv_done
- L_AES_GCM_decrypt_aesni_calc_iv_lt16:
- subq $16, %rsp
- pxor %xmm8, %xmm8
- xorl %ebx, %ebx
- movdqu %xmm8, (%rsp)
- L_AES_GCM_decrypt_aesni_calc_iv_loop:
- movzbl (%rax,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_aesni_calc_iv_loop
- movdqu (%rsp), %xmm8
- addq $16, %rsp
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm7
- por %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm4
- L_AES_GCM_decrypt_aesni_calc_iv_done:
- # T = Encrypt counter
- pxor %xmm0, %xmm0
- shll $3, %edx
- pinsrq $0x00, %rdx, %xmm0
- pxor %xmm0, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm7
- por %xmm1, %xmm4
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
- # Encrypt counter
- movdqa (%r15), %xmm8
- pxor %xmm4, %xmm8
- aesenc 16(%r15), %xmm8
- aesenc 32(%r15), %xmm8
- aesenc 48(%r15), %xmm8
- aesenc 64(%r15), %xmm8
- aesenc 80(%r15), %xmm8
- aesenc 96(%r15), %xmm8
- aesenc 112(%r15), %xmm8
- aesenc 128(%r15), %xmm8
- aesenc 144(%r15), %xmm8
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_decrypt_aesni_calc_iv_2_aesenc_avx_last
- aesenc %xmm9, %xmm8
- aesenc 176(%r15), %xmm8
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_decrypt_aesni_calc_iv_2_aesenc_avx_last
- aesenc %xmm9, %xmm8
- aesenc 208(%r15), %xmm8
- movdqa 224(%r15), %xmm9
- L_AES_GCM_decrypt_aesni_calc_iv_2_aesenc_avx_last:
- aesenclast %xmm9, %xmm8
- movdqu %xmm8, 144(%rsp)
- L_AES_GCM_decrypt_aesni_iv_done:
- # Additional authentication data
- movl %r11d, %edx
- cmpl $0x00, %edx
- je L_AES_GCM_decrypt_aesni_calc_aad_done
- xorl %ecx, %ecx
- cmpl $16, %edx
- jl L_AES_GCM_decrypt_aesni_calc_aad_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_decrypt_aesni_calc_aad_16_loop:
- movdqu (%r12,%rcx,1), %xmm8
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm6
- pshufd $0x4e, %xmm6, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm6, %xmm3
- pclmulqdq $0x00, %xmm6, %xmm0
- pxor %xmm6, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm6
- movdqa %xmm7, %xmm0
- movdqa %xmm6, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm6
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm6
- por %xmm0, %xmm7
- por %xmm1, %xmm6
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm6
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_aesni_calc_aad_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_decrypt_aesni_calc_aad_done
- L_AES_GCM_decrypt_aesni_calc_aad_lt16:
- subq $16, %rsp
- pxor %xmm8, %xmm8
- xorl %ebx, %ebx
- movdqu %xmm8, (%rsp)
- L_AES_GCM_decrypt_aesni_calc_aad_loop:
- movzbl (%r12,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_aesni_calc_aad_loop
- movdqu (%rsp), %xmm8
- addq $16, %rsp
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm6
- pshufd $0x4e, %xmm6, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm6, %xmm3
- pclmulqdq $0x00, %xmm6, %xmm0
- pxor %xmm6, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm7
- movdqa %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm7
- pxor %xmm1, %xmm6
- movdqa %xmm7, %xmm0
- movdqa %xmm6, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm7
- pslld $0x01, %xmm6
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm6
- por %xmm0, %xmm7
- por %xmm1, %xmm6
- movdqa %xmm7, %xmm0
- movdqa %xmm7, %xmm1
- movdqa %xmm7, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm7
- movdqa %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm7, %xmm2
- pxor %xmm2, %xmm6
- L_AES_GCM_decrypt_aesni_calc_aad_done:
- # Calculate counter and H
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
- movdqa %xmm5, %xmm9
- paddd L_aes_gcm_one(%rip), %xmm4
- movdqa %xmm5, %xmm8
- movdqu %xmm4, 128(%rsp)
- psrlq $63, %xmm9
- psllq $0x01, %xmm8
- pslldq $8, %xmm9
- por %xmm9, %xmm8
- pshufd $0xff, %xmm5, %xmm5
- psrad $31, %xmm5
- pand L_aes_gcm_mod2_128(%rip), %xmm5
- pxor %xmm8, %xmm5
- xorl %ebx, %ebx
- cmpl $0x80, %r9d
- movl %r9d, %r13d
- jl L_AES_GCM_decrypt_aesni_done_128
- andl $0xffffff80, %r13d
- movdqa %xmm6, %xmm2
- # H ^ 1
- movdqu %xmm5, (%rsp)
- # H ^ 2
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm5, %xmm10
- movdqa %xmm5, %xmm11
- movdqa %xmm5, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm5, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm0
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm0
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm0
- movdqu %xmm0, 16(%rsp)
- # H ^ 3
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm0, %xmm10
- movdqa %xmm0, %xmm11
- movdqa %xmm0, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm0, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm1
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm1
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm1
- movdqu %xmm1, 32(%rsp)
- # H ^ 4
- pshufd $0x4e, %xmm0, %xmm9
- pshufd $0x4e, %xmm0, %xmm10
- movdqa %xmm0, %xmm11
- movdqa %xmm0, %xmm8
- pclmulqdq $0x11, %xmm0, %xmm11
- pclmulqdq $0x00, %xmm0, %xmm8
- pxor %xmm0, %xmm9
- pxor %xmm0, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm3
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm3
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm3
- movdqu %xmm3, 48(%rsp)
- # H ^ 5
- pshufd $0x4e, %xmm0, %xmm9
- pshufd $0x4e, %xmm1, %xmm10
- movdqa %xmm1, %xmm11
- movdqa %xmm1, %xmm8
- pclmulqdq $0x11, %xmm0, %xmm11
- pclmulqdq $0x00, %xmm0, %xmm8
- pxor %xmm0, %xmm9
- pxor %xmm1, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 64(%rsp)
- # H ^ 6
- pshufd $0x4e, %xmm1, %xmm9
- pshufd $0x4e, %xmm1, %xmm10
- movdqa %xmm1, %xmm11
- movdqa %xmm1, %xmm8
- pclmulqdq $0x11, %xmm1, %xmm11
- pclmulqdq $0x00, %xmm1, %xmm8
- pxor %xmm1, %xmm9
- pxor %xmm1, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 80(%rsp)
- # H ^ 7
- pshufd $0x4e, %xmm1, %xmm9
- pshufd $0x4e, %xmm3, %xmm10
- movdqa %xmm3, %xmm11
- movdqa %xmm3, %xmm8
- pclmulqdq $0x11, %xmm1, %xmm11
- pclmulqdq $0x00, %xmm1, %xmm8
- pxor %xmm1, %xmm9
- pxor %xmm3, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 96(%rsp)
- # H ^ 8
- pshufd $0x4e, %xmm3, %xmm9
- pshufd $0x4e, %xmm3, %xmm10
- movdqa %xmm3, %xmm11
- movdqa %xmm3, %xmm8
- pclmulqdq $0x11, %xmm3, %xmm11
- pclmulqdq $0x00, %xmm3, %xmm8
- pxor %xmm3, %xmm9
- pxor %xmm3, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 112(%rsp)
- L_AES_GCM_decrypt_aesni_ghash_128:
- leaq (%rdi,%rbx,1), %rcx
- leaq (%rsi,%rbx,1), %rdx
- movdqu 128(%rsp), %xmm8
- movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
- movdqa %xmm8, %xmm0
- pshufb %xmm1, %xmm8
- movdqa %xmm0, %xmm9
- paddd L_aes_gcm_one(%rip), %xmm9
- pshufb %xmm1, %xmm9
- movdqa %xmm0, %xmm10
- paddd L_aes_gcm_two(%rip), %xmm10
- pshufb %xmm1, %xmm10
- movdqa %xmm0, %xmm11
- paddd L_aes_gcm_three(%rip), %xmm11
- pshufb %xmm1, %xmm11
- movdqa %xmm0, %xmm12
- paddd L_aes_gcm_four(%rip), %xmm12
- pshufb %xmm1, %xmm12
- movdqa %xmm0, %xmm13
- paddd L_aes_gcm_five(%rip), %xmm13
- pshufb %xmm1, %xmm13
- movdqa %xmm0, %xmm14
- paddd L_aes_gcm_six(%rip), %xmm14
- pshufb %xmm1, %xmm14
- movdqa %xmm0, %xmm15
- paddd L_aes_gcm_seven(%rip), %xmm15
- pshufb %xmm1, %xmm15
- paddd L_aes_gcm_eight(%rip), %xmm0
- movdqa (%r15), %xmm7
- movdqu %xmm0, 128(%rsp)
- pxor %xmm7, %xmm8
- pxor %xmm7, %xmm9
- pxor %xmm7, %xmm10
- pxor %xmm7, %xmm11
- pxor %xmm7, %xmm12
- pxor %xmm7, %xmm13
- pxor %xmm7, %xmm14
- pxor %xmm7, %xmm15
- movdqu 112(%rsp), %xmm7
- movdqu (%rcx), %xmm0
- aesenc 16(%r15), %xmm8
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- pxor %xmm2, %xmm0
- pshufd $0x4e, %xmm7, %xmm1
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm7, %xmm1
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm3
- pclmulqdq $0x11, %xmm7, %xmm3
- aesenc 16(%r15), %xmm9
- aesenc 16(%r15), %xmm10
- movdqa %xmm0, %xmm2
- pclmulqdq $0x00, %xmm7, %xmm2
- aesenc 16(%r15), %xmm11
- aesenc 16(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm1
- aesenc 16(%r15), %xmm13
- aesenc 16(%r15), %xmm14
- aesenc 16(%r15), %xmm15
- pxor %xmm2, %xmm1
- pxor %xmm3, %xmm1
- movdqu 96(%rsp), %xmm7
- movdqu 16(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 32(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 32(%r15), %xmm9
- aesenc 32(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 32(%r15), %xmm11
- aesenc 32(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 32(%r15), %xmm13
- aesenc 32(%r15), %xmm14
- aesenc 32(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 80(%rsp), %xmm7
- movdqu 32(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 48(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 48(%r15), %xmm9
- aesenc 48(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 48(%r15), %xmm11
- aesenc 48(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 48(%r15), %xmm13
- aesenc 48(%r15), %xmm14
- aesenc 48(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 64(%rsp), %xmm7
- movdqu 48(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 64(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 64(%r15), %xmm9
- aesenc 64(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 64(%r15), %xmm11
- aesenc 64(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 64(%r15), %xmm13
- aesenc 64(%r15), %xmm14
- aesenc 64(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 48(%rsp), %xmm7
- movdqu 64(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 80(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 80(%r15), %xmm9
- aesenc 80(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 80(%r15), %xmm11
- aesenc 80(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 80(%r15), %xmm13
- aesenc 80(%r15), %xmm14
- aesenc 80(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 32(%rsp), %xmm7
- movdqu 80(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 96(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 96(%r15), %xmm9
- aesenc 96(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 96(%r15), %xmm11
- aesenc 96(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 96(%r15), %xmm13
- aesenc 96(%r15), %xmm14
- aesenc 96(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 16(%rsp), %xmm7
- movdqu 96(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 112(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 112(%r15), %xmm9
- aesenc 112(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 112(%r15), %xmm11
- aesenc 112(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 112(%r15), %xmm13
- aesenc 112(%r15), %xmm14
- aesenc 112(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu (%rsp), %xmm7
- movdqu 112(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 128(%r15), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 128(%r15), %xmm9
- aesenc 128(%r15), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 128(%r15), %xmm11
- aesenc 128(%r15), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 128(%r15), %xmm13
- aesenc 128(%r15), %xmm14
- aesenc 128(%r15), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqa %xmm1, %xmm5
- psrldq $8, %xmm1
- pslldq $8, %xmm5
- aesenc 144(%r15), %xmm8
- pxor %xmm5, %xmm2
- pxor %xmm1, %xmm3
- movdqa %xmm2, %xmm7
- movdqa %xmm2, %xmm4
- movdqa %xmm2, %xmm5
- aesenc 144(%r15), %xmm9
- pslld $31, %xmm7
- pslld $30, %xmm4
- pslld $25, %xmm5
- aesenc 144(%r15), %xmm10
- pxor %xmm4, %xmm7
- pxor %xmm5, %xmm7
- aesenc 144(%r15), %xmm11
- movdqa %xmm7, %xmm4
- pslldq $12, %xmm7
- psrldq $4, %xmm4
- aesenc 144(%r15), %xmm12
- pxor %xmm7, %xmm2
- movdqa %xmm2, %xmm5
- movdqa %xmm2, %xmm1
- movdqa %xmm2, %xmm0
- aesenc 144(%r15), %xmm13
- psrld $0x01, %xmm5
- psrld $2, %xmm1
- psrld $7, %xmm0
- aesenc 144(%r15), %xmm14
- pxor %xmm1, %xmm5
- pxor %xmm0, %xmm5
- aesenc 144(%r15), %xmm15
- pxor %xmm4, %xmm5
- pxor %xmm5, %xmm2
- pxor %xmm3, %xmm2
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm7
- jl L_AES_GCM_decrypt_aesni_aesenc_128_ghash_avx_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 176(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm7
- jl L_AES_GCM_decrypt_aesni_aesenc_128_ghash_avx_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 208(%r15), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 224(%r15), %xmm7
- L_AES_GCM_decrypt_aesni_aesenc_128_ghash_avx_done:
- aesenclast %xmm7, %xmm8
- aesenclast %xmm7, %xmm9
- movdqu (%rcx), %xmm0
- movdqu 16(%rcx), %xmm1
- pxor %xmm0, %xmm8
- pxor %xmm1, %xmm9
- movdqu %xmm8, (%rdx)
- movdqu %xmm9, 16(%rdx)
- aesenclast %xmm7, %xmm10
- aesenclast %xmm7, %xmm11
- movdqu 32(%rcx), %xmm0
- movdqu 48(%rcx), %xmm1
- pxor %xmm0, %xmm10
- pxor %xmm1, %xmm11
- movdqu %xmm10, 32(%rdx)
- movdqu %xmm11, 48(%rdx)
- aesenclast %xmm7, %xmm12
- aesenclast %xmm7, %xmm13
- movdqu 64(%rcx), %xmm0
- movdqu 80(%rcx), %xmm1
- pxor %xmm0, %xmm12
- pxor %xmm1, %xmm13
- movdqu %xmm12, 64(%rdx)
- movdqu %xmm13, 80(%rdx)
- aesenclast %xmm7, %xmm14
- aesenclast %xmm7, %xmm15
- movdqu 96(%rcx), %xmm0
- movdqu 112(%rcx), %xmm1
- pxor %xmm0, %xmm14
- pxor %xmm1, %xmm15
- movdqu %xmm14, 96(%rdx)
- movdqu %xmm15, 112(%rdx)
- addl $0x80, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_decrypt_aesni_ghash_128
- movdqa %xmm2, %xmm6
- movdqu (%rsp), %xmm5
- L_AES_GCM_decrypt_aesni_done_128:
- movl %r9d, %edx
- cmpl %edx, %ebx
- jge L_AES_GCM_decrypt_aesni_done_dec
- movl %r9d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %ebx
- jge L_AES_GCM_decrypt_aesni_last_block_done
- L_AES_GCM_decrypt_aesni_last_block_start:
- leaq (%rdi,%rbx,1), %rcx
- leaq (%rsi,%rbx,1), %rdx
- movdqu (%rcx), %xmm1
- movdqa %xmm5, %xmm0
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm1
- pxor %xmm6, %xmm1
- movdqu 128(%rsp), %xmm8
- movdqa %xmm8, %xmm9
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
- paddd L_aes_gcm_one(%rip), %xmm9
- pxor (%r15), %xmm8
- movdqu %xmm9, 128(%rsp)
- movdqa %xmm1, %xmm10
- pclmulqdq $16, %xmm0, %xmm10
- aesenc 16(%r15), %xmm8
- aesenc 32(%r15), %xmm8
- movdqa %xmm1, %xmm11
- pclmulqdq $0x01, %xmm0, %xmm11
- aesenc 48(%r15), %xmm8
- aesenc 64(%r15), %xmm8
- movdqa %xmm1, %xmm12
- pclmulqdq $0x00, %xmm0, %xmm12
- aesenc 80(%r15), %xmm8
- movdqa %xmm1, %xmm1
- pclmulqdq $0x11, %xmm0, %xmm1
- aesenc 96(%r15), %xmm8
- pxor %xmm11, %xmm10
- movdqa %xmm10, %xmm2
- psrldq $8, %xmm10
- pslldq $8, %xmm2
- aesenc 112(%r15), %xmm8
- movdqa %xmm1, %xmm3
- pxor %xmm12, %xmm2
- pxor %xmm10, %xmm3
- movdqa L_aes_gcm_mod2_128(%rip), %xmm0
- movdqa %xmm2, %xmm11
- pclmulqdq $16, %xmm0, %xmm11
- aesenc 128(%r15), %xmm8
- pshufd $0x4e, %xmm2, %xmm10
- pxor %xmm11, %xmm10
- movdqa %xmm10, %xmm11
- pclmulqdq $16, %xmm0, %xmm11
- aesenc 144(%r15), %xmm8
- pshufd $0x4e, %xmm10, %xmm6
- pxor %xmm11, %xmm6
- pxor %xmm3, %xmm6
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_decrypt_aesni_aesenc_gfmul_last
- aesenc %xmm9, %xmm8
- aesenc 176(%r15), %xmm8
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_decrypt_aesni_aesenc_gfmul_last
- aesenc %xmm9, %xmm8
- aesenc 208(%r15), %xmm8
- movdqa 224(%r15), %xmm9
- L_AES_GCM_decrypt_aesni_aesenc_gfmul_last:
- aesenclast %xmm9, %xmm8
- movdqu (%rcx), %xmm9
- pxor %xmm9, %xmm8
- movdqu %xmm8, (%rdx)
- addl $16, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_decrypt_aesni_last_block_start
- L_AES_GCM_decrypt_aesni_last_block_done:
- movl %r9d, %ecx
- movl %ecx, %edx
- andl $15, %ecx
- jz L_AES_GCM_decrypt_aesni_aesenc_last15_dec_avx_done
- movdqu 128(%rsp), %xmm4
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
- pxor (%r15), %xmm4
- aesenc 16(%r15), %xmm4
- aesenc 32(%r15), %xmm4
- aesenc 48(%r15), %xmm4
- aesenc 64(%r15), %xmm4
- aesenc 80(%r15), %xmm4
- aesenc 96(%r15), %xmm4
- aesenc 112(%r15), %xmm4
- aesenc 128(%r15), %xmm4
- aesenc 144(%r15), %xmm4
- cmpl $11, %r10d
- movdqa 160(%r15), %xmm9
- jl L_AES_GCM_decrypt_aesni_aesenc_last15_dec_avx_aesenc_avx_last
- aesenc %xmm9, %xmm4
- aesenc 176(%r15), %xmm4
- cmpl $13, %r10d
- movdqa 192(%r15), %xmm9
- jl L_AES_GCM_decrypt_aesni_aesenc_last15_dec_avx_aesenc_avx_last
- aesenc %xmm9, %xmm4
- aesenc 208(%r15), %xmm4
- movdqa 224(%r15), %xmm9
- L_AES_GCM_decrypt_aesni_aesenc_last15_dec_avx_aesenc_avx_last:
- aesenclast %xmm9, %xmm4
- subq $32, %rsp
- xorl %ecx, %ecx
- movdqu %xmm4, (%rsp)
- pxor %xmm0, %xmm0
- movdqu %xmm0, 16(%rsp)
- L_AES_GCM_decrypt_aesni_aesenc_last15_dec_avx_loop:
- movzbl (%rdi,%rbx,1), %r13d
- movb %r13b, 16(%rsp,%rcx,1)
- xorb (%rsp,%rcx,1), %r13b
- movb %r13b, (%rsi,%rbx,1)
- incl %ebx
- incl %ecx
- cmpl %edx, %ebx
- jl L_AES_GCM_decrypt_aesni_aesenc_last15_dec_avx_loop
- movdqu 16(%rsp), %xmm4
- addq $32, %rsp
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
- pxor %xmm4, %xmm6
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm6, %xmm10
- movdqa %xmm6, %xmm11
- movdqa %xmm6, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm6, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm6
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm6
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm6
- L_AES_GCM_decrypt_aesni_aesenc_last15_dec_avx_done:
- L_AES_GCM_decrypt_aesni_done_dec:
- movl %r9d, %edx
- movl %r11d, %ecx
- shlq $3, %rdx
- shlq $3, %rcx
- pinsrq $0x00, %rdx, %xmm0
- pinsrq $0x01, %rcx, %xmm0
- pxor %xmm0, %xmm6
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm6, %xmm10
- movdqa %xmm6, %xmm11
- movdqa %xmm6, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm6, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm6
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm6
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm6
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
- movdqu 144(%rsp), %xmm0
- pxor %xmm6, %xmm0
- cmpl $16, %r14d
- je L_AES_GCM_decrypt_aesni_cmp_tag_16
- subq $16, %rsp
- xorq %rcx, %rcx
- xorq %rbx, %rbx
- movdqu %xmm0, (%rsp)
- L_AES_GCM_decrypt_aesni_cmp_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- xorb (%r8,%rcx,1), %r13b
- orb %r13b, %bl
- incl %ecx
- cmpl %r14d, %ecx
- jne L_AES_GCM_decrypt_aesni_cmp_tag_loop
- cmpb $0x00, %bl
- sete %bl
- addq $16, %rsp
- xorq %rcx, %rcx
- jmp L_AES_GCM_decrypt_aesni_cmp_tag_done
- L_AES_GCM_decrypt_aesni_cmp_tag_16:
- movdqu (%r8), %xmm1
- pcmpeqb %xmm1, %xmm0
- pmovmskb %xmm0, %rdx
- # %%edx == 0xFFFF then return 1 else => return 0
- xorl %ebx, %ebx
- cmpl $0xffff, %edx
- sete %bl
- L_AES_GCM_decrypt_aesni_cmp_tag_done:
- movl %ebx, (%rbp)
- addq $0xa8, %rsp
- popq %rbp
- popq %r15
- popq %r14
- popq %rbx
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_aesni,.-AES_GCM_decrypt_aesni
- #endif /* __APPLE__ */
- #ifdef WOLFSSL_AESGCM_STREAM
- #ifndef __APPLE__
- .text
- .globl AES_GCM_init_aesni
- .type AES_GCM_init_aesni,@function
- .align 16
- AES_GCM_init_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_init_aesni
- .p2align 4
- _AES_GCM_init_aesni:
- #endif /* __APPLE__ */
- pushq %r12
- pushq %r13
- pushq %r14
- movq %rdx, %r10
- movl %ecx, %r11d
- movq 32(%rsp), %rax
- subq $16, %rsp
- pxor %xmm4, %xmm4
- movl %r11d, %edx
- cmpl $12, %edx
- jne L_AES_GCM_init_aesni_iv_not_12
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- movl $0x1000000, %ecx
- pinsrq $0x00, (%r10), %xmm4
- pinsrd $2, 8(%r10), %xmm4
- pinsrd $3, %ecx, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- movdqa %xmm4, %xmm1
- movdqa (%rdi), %xmm5
- pxor %xmm5, %xmm1
- movdqa 16(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 32(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 48(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 64(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 80(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 96(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 112(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 128(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 144(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm6
- jl L_AES_GCM_init_aesni_calc_iv_12_last
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 176(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm6
- jl L_AES_GCM_init_aesni_calc_iv_12_last
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 208(%rdi), %xmm6
- aesenc %xmm6, %xmm5
- aesenc %xmm6, %xmm1
- movdqa 224(%rdi), %xmm6
- L_AES_GCM_init_aesni_calc_iv_12_last:
- aesenclast %xmm6, %xmm5
- aesenclast %xmm6, %xmm1
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
- movdqu %xmm1, %xmm15
- jmp L_AES_GCM_init_aesni_iv_done
- L_AES_GCM_init_aesni_iv_not_12:
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- movdqa (%rdi), %xmm5
- aesenc 16(%rdi), %xmm5
- aesenc 32(%rdi), %xmm5
- aesenc 48(%rdi), %xmm5
- aesenc 64(%rdi), %xmm5
- aesenc 80(%rdi), %xmm5
- aesenc 96(%rdi), %xmm5
- aesenc 112(%rdi), %xmm5
- aesenc 128(%rdi), %xmm5
- aesenc 144(%rdi), %xmm5
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm8
- jl L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last
- aesenc %xmm8, %xmm5
- aesenc 176(%rdi), %xmm5
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm8
- jl L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last
- aesenc %xmm8, %xmm5
- aesenc 208(%rdi), %xmm5
- movdqa 224(%rdi), %xmm8
- L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last:
- aesenclast %xmm8, %xmm5
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_init_aesni_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_init_aesni_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_init_aesni_calc_iv_16_loop:
- movdqu (%r10,%rcx,1), %xmm7
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm7
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm6
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm6
- pxor %xmm1, %xmm4
- movdqa %xmm6, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm6
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm6
- por %xmm1, %xmm4
- movdqa %xmm6, %xmm0
- movdqa %xmm6, %xmm1
- movdqa %xmm6, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm6
- movdqa %xmm6, %xmm2
- movdqa %xmm6, %xmm3
- movdqa %xmm6, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm6, %xmm2
- pxor %xmm2, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_init_aesni_calc_iv_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_init_aesni_calc_iv_done
- L_AES_GCM_init_aesni_calc_iv_lt16:
- subq $16, %rsp
- pxor %xmm7, %xmm7
- xorl %r13d, %r13d
- movdqu %xmm7, (%rsp)
- L_AES_GCM_init_aesni_calc_iv_loop:
- movzbl (%r10,%rcx,1), %r12d
- movb %r12b, (%rsp,%r13,1)
- incl %ecx
- incl %r13d
- cmpl %edx, %ecx
- jl L_AES_GCM_init_aesni_calc_iv_loop
- movdqu (%rsp), %xmm7
- addq $16, %rsp
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm7
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm6
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm6
- pxor %xmm1, %xmm4
- movdqa %xmm6, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm6
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm6
- por %xmm1, %xmm4
- movdqa %xmm6, %xmm0
- movdqa %xmm6, %xmm1
- movdqa %xmm6, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm6
- movdqa %xmm6, %xmm2
- movdqa %xmm6, %xmm3
- movdqa %xmm6, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm6, %xmm2
- pxor %xmm2, %xmm4
- L_AES_GCM_init_aesni_calc_iv_done:
- # T = Encrypt counter
- pxor %xmm0, %xmm0
- shll $3, %edx
- pinsrq $0x00, %rdx, %xmm0
- pxor %xmm0, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm6
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm6
- pxor %xmm1, %xmm4
- movdqa %xmm6, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm6
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm6
- por %xmm1, %xmm4
- movdqa %xmm6, %xmm0
- movdqa %xmm6, %xmm1
- movdqa %xmm6, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm6
- movdqa %xmm6, %xmm2
- movdqa %xmm6, %xmm3
- movdqa %xmm6, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm6, %xmm2
- pxor %xmm2, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
- # Encrypt counter
- movdqa (%rdi), %xmm7
- pxor %xmm4, %xmm7
- aesenc 16(%rdi), %xmm7
- aesenc 32(%rdi), %xmm7
- aesenc 48(%rdi), %xmm7
- aesenc 64(%rdi), %xmm7
- aesenc 80(%rdi), %xmm7
- aesenc 96(%rdi), %xmm7
- aesenc 112(%rdi), %xmm7
- aesenc 128(%rdi), %xmm7
- aesenc 144(%rdi), %xmm7
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm8
- jl L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last
- aesenc %xmm8, %xmm7
- aesenc 176(%rdi), %xmm7
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm8
- jl L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last
- aesenc %xmm8, %xmm7
- aesenc 208(%rdi), %xmm7
- movdqa 224(%rdi), %xmm8
- L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last:
- aesenclast %xmm8, %xmm7
- movdqu %xmm7, %xmm15
- L_AES_GCM_init_aesni_iv_done:
- movdqa %xmm15, (%rax)
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
- paddd L_aes_gcm_one(%rip), %xmm4
- movdqa %xmm5, (%r8)
- movdqa %xmm4, (%r9)
- addq $16, %rsp
- popq %r14
- popq %r13
- popq %r12
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_init_aesni,.-AES_GCM_init_aesni
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_aad_update_aesni
- .type AES_GCM_aad_update_aesni,@function
- .align 16
- AES_GCM_aad_update_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_aad_update_aesni
- .p2align 4
- _AES_GCM_aad_update_aesni:
- #endif /* __APPLE__ */
- movq %rcx, %rax
- movdqa (%rdx), %xmm5
- movdqa (%rax), %xmm6
- xorl %ecx, %ecx
- L_AES_GCM_aad_update_aesni_16_loop:
- movdqu (%rdi,%rcx,1), %xmm7
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm7
- pxor %xmm7, %xmm5
- pshufd $0x4e, %xmm5, %xmm1
- pshufd $0x4e, %xmm6, %xmm2
- movdqa %xmm6, %xmm3
- movdqa %xmm6, %xmm0
- pclmulqdq $0x11, %xmm5, %xmm3
- pclmulqdq $0x00, %xmm5, %xmm0
- pxor %xmm5, %xmm1
- pxor %xmm6, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm4
- movdqa %xmm3, %xmm5
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm5
- movdqa %xmm4, %xmm0
- movdqa %xmm5, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm4
- pslld $0x01, %xmm5
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm5
- por %xmm0, %xmm4
- por %xmm1, %xmm5
- movdqa %xmm4, %xmm0
- movdqa %xmm4, %xmm1
- movdqa %xmm4, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm4
- movdqa %xmm4, %xmm2
- movdqa %xmm4, %xmm3
- movdqa %xmm4, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm4, %xmm2
- pxor %xmm2, %xmm5
- addl $16, %ecx
- cmpl %esi, %ecx
- jl L_AES_GCM_aad_update_aesni_16_loop
- movdqa %xmm5, (%rdx)
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_aad_update_aesni,.-AES_GCM_aad_update_aesni
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_block_aesni
- .type AES_GCM_encrypt_block_aesni,@function
- .align 16
- AES_GCM_encrypt_block_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_block_aesni
- .p2align 4
- _AES_GCM_encrypt_block_aesni:
- #endif /* __APPLE__ */
- movq %rdx, %r10
- movq %rcx, %r11
- movdqu (%r8), %xmm0
- movdqa %xmm0, %xmm1
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm0
- paddd L_aes_gcm_one(%rip), %xmm1
- pxor (%rdi), %xmm0
- movdqu %xmm1, (%r8)
- aesenc 16(%rdi), %xmm0
- aesenc 32(%rdi), %xmm0
- aesenc 48(%rdi), %xmm0
- aesenc 64(%rdi), %xmm0
- aesenc 80(%rdi), %xmm0
- aesenc 96(%rdi), %xmm0
- aesenc 112(%rdi), %xmm0
- aesenc 128(%rdi), %xmm0
- aesenc 144(%rdi), %xmm0
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm1
- jl L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last
- aesenc %xmm1, %xmm0
- aesenc 176(%rdi), %xmm0
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm1
- jl L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last
- aesenc %xmm1, %xmm0
- aesenc 208(%rdi), %xmm0
- movdqa 224(%rdi), %xmm1
- L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last:
- aesenclast %xmm1, %xmm0
- movdqu (%r11), %xmm1
- pxor %xmm1, %xmm0
- movdqu %xmm0, (%r10)
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_block_aesni,.-AES_GCM_encrypt_block_aesni
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_ghash_block_aesni
- .type AES_GCM_ghash_block_aesni,@function
- .align 16
- AES_GCM_ghash_block_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_ghash_block_aesni
- .p2align 4
- _AES_GCM_ghash_block_aesni:
- #endif /* __APPLE__ */
- movdqa (%rsi), %xmm4
- movdqa (%rdx), %xmm5
- movdqu (%rdi), %xmm7
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm7
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm4, %xmm1
- pshufd $0x4e, %xmm5, %xmm2
- movdqa %xmm5, %xmm3
- movdqa %xmm5, %xmm0
- pclmulqdq $0x11, %xmm4, %xmm3
- pclmulqdq $0x00, %xmm4, %xmm0
- pxor %xmm4, %xmm1
- pxor %xmm5, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm6
- movdqa %xmm3, %xmm4
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm6
- pxor %xmm1, %xmm4
- movdqa %xmm6, %xmm0
- movdqa %xmm4, %xmm1
- psrld $31, %xmm0
- psrld $31, %xmm1
- pslld $0x01, %xmm6
- pslld $0x01, %xmm4
- movdqa %xmm0, %xmm2
- pslldq $4, %xmm0
- psrldq $12, %xmm2
- pslldq $4, %xmm1
- por %xmm2, %xmm4
- por %xmm0, %xmm6
- por %xmm1, %xmm4
- movdqa %xmm6, %xmm0
- movdqa %xmm6, %xmm1
- movdqa %xmm6, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm6
- movdqa %xmm6, %xmm2
- movdqa %xmm6, %xmm3
- movdqa %xmm6, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm6, %xmm2
- pxor %xmm2, %xmm4
- movdqa %xmm4, (%rsi)
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_ghash_block_aesni,.-AES_GCM_ghash_block_aesni
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_update_aesni
- .type AES_GCM_encrypt_update_aesni,@function
- .align 16
- AES_GCM_encrypt_update_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_update_aesni
- .p2align 4
- _AES_GCM_encrypt_update_aesni:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %r14
- movq %rdx, %r10
- movq %rcx, %r11
- movq 32(%rsp), %rax
- movq 40(%rsp), %r12
- subq $0xa0, %rsp
- movdqa (%r9), %xmm6
- movdqa (%rax), %xmm5
- movdqa %xmm5, %xmm9
- movdqa %xmm5, %xmm8
- psrlq $63, %xmm9
- psllq $0x01, %xmm8
- pslldq $8, %xmm9
- por %xmm9, %xmm8
- pshufd $0xff, %xmm5, %xmm5
- psrad $31, %xmm5
- pand L_aes_gcm_mod2_128(%rip), %xmm5
- pxor %xmm8, %xmm5
- xorq %r14, %r14
- cmpl $0x80, %r8d
- movl %r8d, %r13d
- jl L_AES_GCM_encrypt_update_aesni_done_128
- andl $0xffffff80, %r13d
- movdqa %xmm6, %xmm2
- # H ^ 1
- movdqu %xmm5, (%rsp)
- # H ^ 2
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm5, %xmm10
- movdqa %xmm5, %xmm11
- movdqa %xmm5, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm5, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm0
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm0
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm0
- movdqu %xmm0, 16(%rsp)
- # H ^ 3
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm0, %xmm10
- movdqa %xmm0, %xmm11
- movdqa %xmm0, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm0, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm1
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm1
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm1
- movdqu %xmm1, 32(%rsp)
- # H ^ 4
- pshufd $0x4e, %xmm0, %xmm9
- pshufd $0x4e, %xmm0, %xmm10
- movdqa %xmm0, %xmm11
- movdqa %xmm0, %xmm8
- pclmulqdq $0x11, %xmm0, %xmm11
- pclmulqdq $0x00, %xmm0, %xmm8
- pxor %xmm0, %xmm9
- pxor %xmm0, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm3
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm3
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm3
- movdqu %xmm3, 48(%rsp)
- # H ^ 5
- pshufd $0x4e, %xmm0, %xmm9
- pshufd $0x4e, %xmm1, %xmm10
- movdqa %xmm1, %xmm11
- movdqa %xmm1, %xmm8
- pclmulqdq $0x11, %xmm0, %xmm11
- pclmulqdq $0x00, %xmm0, %xmm8
- pxor %xmm0, %xmm9
- pxor %xmm1, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 64(%rsp)
- # H ^ 6
- pshufd $0x4e, %xmm1, %xmm9
- pshufd $0x4e, %xmm1, %xmm10
- movdqa %xmm1, %xmm11
- movdqa %xmm1, %xmm8
- pclmulqdq $0x11, %xmm1, %xmm11
- pclmulqdq $0x00, %xmm1, %xmm8
- pxor %xmm1, %xmm9
- pxor %xmm1, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 80(%rsp)
- # H ^ 7
- pshufd $0x4e, %xmm1, %xmm9
- pshufd $0x4e, %xmm3, %xmm10
- movdqa %xmm3, %xmm11
- movdqa %xmm3, %xmm8
- pclmulqdq $0x11, %xmm1, %xmm11
- pclmulqdq $0x00, %xmm1, %xmm8
- pxor %xmm1, %xmm9
- pxor %xmm3, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 96(%rsp)
- # H ^ 8
- pshufd $0x4e, %xmm3, %xmm9
- pshufd $0x4e, %xmm3, %xmm10
- movdqa %xmm3, %xmm11
- movdqa %xmm3, %xmm8
- pclmulqdq $0x11, %xmm3, %xmm11
- pclmulqdq $0x00, %xmm3, %xmm8
- pxor %xmm3, %xmm9
- pxor %xmm3, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 112(%rsp)
- # First 128 bytes of input
- movdqu (%r12), %xmm8
- movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
- movdqa %xmm8, %xmm0
- pshufb %xmm1, %xmm8
- movdqa %xmm0, %xmm9
- paddd L_aes_gcm_one(%rip), %xmm9
- pshufb %xmm1, %xmm9
- movdqa %xmm0, %xmm10
- paddd L_aes_gcm_two(%rip), %xmm10
- pshufb %xmm1, %xmm10
- movdqa %xmm0, %xmm11
- paddd L_aes_gcm_three(%rip), %xmm11
- pshufb %xmm1, %xmm11
- movdqa %xmm0, %xmm12
- paddd L_aes_gcm_four(%rip), %xmm12
- pshufb %xmm1, %xmm12
- movdqa %xmm0, %xmm13
- paddd L_aes_gcm_five(%rip), %xmm13
- pshufb %xmm1, %xmm13
- movdqa %xmm0, %xmm14
- paddd L_aes_gcm_six(%rip), %xmm14
- pshufb %xmm1, %xmm14
- movdqa %xmm0, %xmm15
- paddd L_aes_gcm_seven(%rip), %xmm15
- pshufb %xmm1, %xmm15
- paddd L_aes_gcm_eight(%rip), %xmm0
- movdqa (%rdi), %xmm7
- movdqu %xmm0, (%r12)
- pxor %xmm7, %xmm8
- pxor %xmm7, %xmm9
- pxor %xmm7, %xmm10
- pxor %xmm7, %xmm11
- pxor %xmm7, %xmm12
- pxor %xmm7, %xmm13
- pxor %xmm7, %xmm14
- pxor %xmm7, %xmm15
- movdqa 16(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 32(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 48(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 64(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 80(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 96(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 112(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 128(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 144(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_aesni_enc_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 176(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_aesni_enc_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 208(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 224(%rdi), %xmm7
- L_AES_GCM_encrypt_update_aesni_enc_done:
- aesenclast %xmm7, %xmm8
- aesenclast %xmm7, %xmm9
- movdqu (%r11), %xmm0
- movdqu 16(%r11), %xmm1
- pxor %xmm0, %xmm8
- pxor %xmm1, %xmm9
- movdqu %xmm8, (%r10)
- movdqu %xmm9, 16(%r10)
- aesenclast %xmm7, %xmm10
- aesenclast %xmm7, %xmm11
- movdqu 32(%r11), %xmm0
- movdqu 48(%r11), %xmm1
- pxor %xmm0, %xmm10
- pxor %xmm1, %xmm11
- movdqu %xmm10, 32(%r10)
- movdqu %xmm11, 48(%r10)
- aesenclast %xmm7, %xmm12
- aesenclast %xmm7, %xmm13
- movdqu 64(%r11), %xmm0
- movdqu 80(%r11), %xmm1
- pxor %xmm0, %xmm12
- pxor %xmm1, %xmm13
- movdqu %xmm12, 64(%r10)
- movdqu %xmm13, 80(%r10)
- aesenclast %xmm7, %xmm14
- aesenclast %xmm7, %xmm15
- movdqu 96(%r11), %xmm0
- movdqu 112(%r11), %xmm1
- pxor %xmm0, %xmm14
- pxor %xmm1, %xmm15
- movdqu %xmm14, 96(%r10)
- movdqu %xmm15, 112(%r10)
- cmpl $0x80, %r13d
- movl $0x80, %r14d
- jle L_AES_GCM_encrypt_update_aesni_end_128
- # More 128 bytes of input
- L_AES_GCM_encrypt_update_aesni_ghash_128:
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- movdqu (%r12), %xmm8
- movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
- movdqa %xmm8, %xmm0
- pshufb %xmm1, %xmm8
- movdqa %xmm0, %xmm9
- paddd L_aes_gcm_one(%rip), %xmm9
- pshufb %xmm1, %xmm9
- movdqa %xmm0, %xmm10
- paddd L_aes_gcm_two(%rip), %xmm10
- pshufb %xmm1, %xmm10
- movdqa %xmm0, %xmm11
- paddd L_aes_gcm_three(%rip), %xmm11
- pshufb %xmm1, %xmm11
- movdqa %xmm0, %xmm12
- paddd L_aes_gcm_four(%rip), %xmm12
- pshufb %xmm1, %xmm12
- movdqa %xmm0, %xmm13
- paddd L_aes_gcm_five(%rip), %xmm13
- pshufb %xmm1, %xmm13
- movdqa %xmm0, %xmm14
- paddd L_aes_gcm_six(%rip), %xmm14
- pshufb %xmm1, %xmm14
- movdqa %xmm0, %xmm15
- paddd L_aes_gcm_seven(%rip), %xmm15
- pshufb %xmm1, %xmm15
- paddd L_aes_gcm_eight(%rip), %xmm0
- movdqa (%rdi), %xmm7
- movdqu %xmm0, (%r12)
- pxor %xmm7, %xmm8
- pxor %xmm7, %xmm9
- pxor %xmm7, %xmm10
- pxor %xmm7, %xmm11
- pxor %xmm7, %xmm12
- pxor %xmm7, %xmm13
- pxor %xmm7, %xmm14
- pxor %xmm7, %xmm15
- movdqu 112(%rsp), %xmm7
- movdqu -128(%rdx), %xmm0
- aesenc 16(%rdi), %xmm8
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- pxor %xmm2, %xmm0
- pshufd $0x4e, %xmm7, %xmm1
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm7, %xmm1
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm3
- pclmulqdq $0x11, %xmm7, %xmm3
- aesenc 16(%rdi), %xmm9
- aesenc 16(%rdi), %xmm10
- movdqa %xmm0, %xmm2
- pclmulqdq $0x00, %xmm7, %xmm2
- aesenc 16(%rdi), %xmm11
- aesenc 16(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm1
- aesenc 16(%rdi), %xmm13
- aesenc 16(%rdi), %xmm14
- aesenc 16(%rdi), %xmm15
- pxor %xmm2, %xmm1
- pxor %xmm3, %xmm1
- movdqu 96(%rsp), %xmm7
- movdqu -112(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 32(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 32(%rdi), %xmm9
- aesenc 32(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 32(%rdi), %xmm11
- aesenc 32(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 32(%rdi), %xmm13
- aesenc 32(%rdi), %xmm14
- aesenc 32(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 80(%rsp), %xmm7
- movdqu -96(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 48(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 48(%rdi), %xmm9
- aesenc 48(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 48(%rdi), %xmm11
- aesenc 48(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 48(%rdi), %xmm13
- aesenc 48(%rdi), %xmm14
- aesenc 48(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 64(%rsp), %xmm7
- movdqu -80(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 64(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 64(%rdi), %xmm9
- aesenc 64(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 64(%rdi), %xmm11
- aesenc 64(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 64(%rdi), %xmm13
- aesenc 64(%rdi), %xmm14
- aesenc 64(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 48(%rsp), %xmm7
- movdqu -64(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 80(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 80(%rdi), %xmm9
- aesenc 80(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 80(%rdi), %xmm11
- aesenc 80(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 80(%rdi), %xmm13
- aesenc 80(%rdi), %xmm14
- aesenc 80(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 32(%rsp), %xmm7
- movdqu -48(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 96(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 96(%rdi), %xmm9
- aesenc 96(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 96(%rdi), %xmm11
- aesenc 96(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 96(%rdi), %xmm13
- aesenc 96(%rdi), %xmm14
- aesenc 96(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 16(%rsp), %xmm7
- movdqu -32(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 112(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 112(%rdi), %xmm9
- aesenc 112(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 112(%rdi), %xmm11
- aesenc 112(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 112(%rdi), %xmm13
- aesenc 112(%rdi), %xmm14
- aesenc 112(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu (%rsp), %xmm7
- movdqu -16(%rdx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 128(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 128(%rdi), %xmm9
- aesenc 128(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 128(%rdi), %xmm11
- aesenc 128(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 128(%rdi), %xmm13
- aesenc 128(%rdi), %xmm14
- aesenc 128(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqa %xmm1, %xmm5
- psrldq $8, %xmm1
- pslldq $8, %xmm5
- aesenc 144(%rdi), %xmm8
- pxor %xmm5, %xmm2
- pxor %xmm1, %xmm3
- movdqa %xmm2, %xmm7
- movdqa %xmm2, %xmm4
- movdqa %xmm2, %xmm5
- aesenc 144(%rdi), %xmm9
- pslld $31, %xmm7
- pslld $30, %xmm4
- pslld $25, %xmm5
- aesenc 144(%rdi), %xmm10
- pxor %xmm4, %xmm7
- pxor %xmm5, %xmm7
- aesenc 144(%rdi), %xmm11
- movdqa %xmm7, %xmm4
- pslldq $12, %xmm7
- psrldq $4, %xmm4
- aesenc 144(%rdi), %xmm12
- pxor %xmm7, %xmm2
- movdqa %xmm2, %xmm5
- movdqa %xmm2, %xmm1
- movdqa %xmm2, %xmm0
- aesenc 144(%rdi), %xmm13
- psrld $0x01, %xmm5
- psrld $2, %xmm1
- psrld $7, %xmm0
- aesenc 144(%rdi), %xmm14
- pxor %xmm1, %xmm5
- pxor %xmm0, %xmm5
- aesenc 144(%rdi), %xmm15
- pxor %xmm4, %xmm5
- pxor %xmm5, %xmm2
- pxor %xmm3, %xmm2
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 176(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 208(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 224(%rdi), %xmm7
- L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done:
- aesenclast %xmm7, %xmm8
- aesenclast %xmm7, %xmm9
- movdqu (%rcx), %xmm0
- movdqu 16(%rcx), %xmm1
- pxor %xmm0, %xmm8
- pxor %xmm1, %xmm9
- movdqu %xmm8, (%rdx)
- movdqu %xmm9, 16(%rdx)
- aesenclast %xmm7, %xmm10
- aesenclast %xmm7, %xmm11
- movdqu 32(%rcx), %xmm0
- movdqu 48(%rcx), %xmm1
- pxor %xmm0, %xmm10
- pxor %xmm1, %xmm11
- movdqu %xmm10, 32(%rdx)
- movdqu %xmm11, 48(%rdx)
- aesenclast %xmm7, %xmm12
- aesenclast %xmm7, %xmm13
- movdqu 64(%rcx), %xmm0
- movdqu 80(%rcx), %xmm1
- pxor %xmm0, %xmm12
- pxor %xmm1, %xmm13
- movdqu %xmm12, 64(%rdx)
- movdqu %xmm13, 80(%rdx)
- aesenclast %xmm7, %xmm14
- aesenclast %xmm7, %xmm15
- movdqu 96(%rcx), %xmm0
- movdqu 112(%rcx), %xmm1
- pxor %xmm0, %xmm14
- pxor %xmm1, %xmm15
- movdqu %xmm14, 96(%rdx)
- movdqu %xmm15, 112(%rdx)
- addl $0x80, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_encrypt_update_aesni_ghash_128
- L_AES_GCM_encrypt_update_aesni_end_128:
- movdqa L_aes_gcm_bswap_mask(%rip), %xmm4
- pshufb %xmm4, %xmm8
- pshufb %xmm4, %xmm9
- pshufb %xmm4, %xmm10
- pshufb %xmm4, %xmm11
- pxor %xmm2, %xmm8
- pshufb %xmm4, %xmm12
- pshufb %xmm4, %xmm13
- pshufb %xmm4, %xmm14
- pshufb %xmm4, %xmm15
- movdqu 112(%rsp), %xmm7
- pshufd $0x4e, %xmm8, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm8, %xmm3
- pclmulqdq $0x00, %xmm8, %xmm0
- pxor %xmm8, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- movdqa %xmm0, %xmm4
- movdqa %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 96(%rsp), %xmm7
- pshufd $0x4e, %xmm9, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm9, %xmm3
- pclmulqdq $0x00, %xmm9, %xmm0
- pxor %xmm9, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 80(%rsp), %xmm7
- pshufd $0x4e, %xmm10, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm10, %xmm3
- pclmulqdq $0x00, %xmm10, %xmm0
- pxor %xmm10, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 64(%rsp), %xmm7
- pshufd $0x4e, %xmm11, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm11, %xmm3
- pclmulqdq $0x00, %xmm11, %xmm0
- pxor %xmm11, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 48(%rsp), %xmm7
- pshufd $0x4e, %xmm12, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm12, %xmm3
- pclmulqdq $0x00, %xmm12, %xmm0
- pxor %xmm12, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 32(%rsp), %xmm7
- pshufd $0x4e, %xmm13, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm13, %xmm3
- pclmulqdq $0x00, %xmm13, %xmm0
- pxor %xmm13, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu 16(%rsp), %xmm7
- pshufd $0x4e, %xmm14, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm14, %xmm3
- pclmulqdq $0x00, %xmm14, %xmm0
- pxor %xmm14, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqu (%rsp), %xmm7
- pshufd $0x4e, %xmm15, %xmm1
- pshufd $0x4e, %xmm7, %xmm2
- movdqa %xmm7, %xmm3
- movdqa %xmm7, %xmm0
- pclmulqdq $0x11, %xmm15, %xmm3
- pclmulqdq $0x00, %xmm15, %xmm0
- pxor %xmm15, %xmm1
- pxor %xmm7, %xmm2
- pclmulqdq $0x00, %xmm2, %xmm1
- pxor %xmm0, %xmm1
- pxor %xmm3, %xmm1
- movdqa %xmm1, %xmm2
- pxor %xmm0, %xmm4
- pxor %xmm3, %xmm6
- pslldq $8, %xmm2
- psrldq $8, %xmm1
- pxor %xmm2, %xmm4
- pxor %xmm1, %xmm6
- movdqa %xmm4, %xmm0
- movdqa %xmm4, %xmm1
- movdqa %xmm4, %xmm2
- pslld $31, %xmm0
- pslld $30, %xmm1
- pslld $25, %xmm2
- pxor %xmm1, %xmm0
- pxor %xmm2, %xmm0
- movdqa %xmm0, %xmm1
- psrldq $4, %xmm1
- pslldq $12, %xmm0
- pxor %xmm0, %xmm4
- movdqa %xmm4, %xmm2
- movdqa %xmm4, %xmm3
- movdqa %xmm4, %xmm0
- psrld $0x01, %xmm2
- psrld $2, %xmm3
- psrld $7, %xmm0
- pxor %xmm3, %xmm2
- pxor %xmm0, %xmm2
- pxor %xmm1, %xmm2
- pxor %xmm4, %xmm2
- pxor %xmm2, %xmm6
- movdqu (%rsp), %xmm5
- L_AES_GCM_encrypt_update_aesni_done_128:
- movl %r8d, %edx
- cmpl %edx, %r14d
- jge L_AES_GCM_encrypt_update_aesni_done_enc
- movl %r8d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %r14d
- jge L_AES_GCM_encrypt_update_aesni_last_block_done
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- movdqu (%r12), %xmm8
- movdqa %xmm8, %xmm9
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
- paddd L_aes_gcm_one(%rip), %xmm9
- pxor (%rdi), %xmm8
- movdqu %xmm9, (%r12)
- aesenc 16(%rdi), %xmm8
- aesenc 32(%rdi), %xmm8
- aesenc 48(%rdi), %xmm8
- aesenc 64(%rdi), %xmm8
- aesenc 80(%rdi), %xmm8
- aesenc 96(%rdi), %xmm8
- aesenc 112(%rdi), %xmm8
- aesenc 128(%rdi), %xmm8
- aesenc 144(%rdi), %xmm8
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm9
- jl L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last
- aesenc %xmm9, %xmm8
- aesenc 176(%rdi), %xmm8
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm9
- jl L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last
- aesenc %xmm9, %xmm8
- aesenc 208(%rdi), %xmm8
- movdqa 224(%rdi), %xmm9
- L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last:
- aesenclast %xmm9, %xmm8
- movdqu (%rcx), %xmm9
- pxor %xmm9, %xmm8
- movdqu %xmm8, (%rdx)
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm6
- addl $16, %r14d
- cmpl %r13d, %r14d
- jge L_AES_GCM_encrypt_update_aesni_last_block_ghash
- L_AES_GCM_encrypt_update_aesni_last_block_start:
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- movdqu (%r12), %xmm8
- movdqa %xmm8, %xmm9
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
- paddd L_aes_gcm_one(%rip), %xmm9
- pxor (%rdi), %xmm8
- movdqu %xmm9, (%r12)
- movdqa %xmm6, %xmm10
- pclmulqdq $16, %xmm5, %xmm10
- aesenc 16(%rdi), %xmm8
- aesenc 32(%rdi), %xmm8
- movdqa %xmm6, %xmm11
- pclmulqdq $0x01, %xmm5, %xmm11
- aesenc 48(%rdi), %xmm8
- aesenc 64(%rdi), %xmm8
- movdqa %xmm6, %xmm12
- pclmulqdq $0x00, %xmm5, %xmm12
- aesenc 80(%rdi), %xmm8
- movdqa %xmm6, %xmm1
- pclmulqdq $0x11, %xmm5, %xmm1
- aesenc 96(%rdi), %xmm8
- pxor %xmm11, %xmm10
- movdqa %xmm10, %xmm2
- psrldq $8, %xmm10
- pslldq $8, %xmm2
- aesenc 112(%rdi), %xmm8
- movdqa %xmm1, %xmm3
- pxor %xmm12, %xmm2
- pxor %xmm10, %xmm3
- movdqa L_aes_gcm_mod2_128(%rip), %xmm0
- movdqa %xmm2, %xmm11
- pclmulqdq $16, %xmm0, %xmm11
- aesenc 128(%rdi), %xmm8
- pshufd $0x4e, %xmm2, %xmm10
- pxor %xmm11, %xmm10
- movdqa %xmm10, %xmm11
- pclmulqdq $16, %xmm0, %xmm11
- aesenc 144(%rdi), %xmm8
- pshufd $0x4e, %xmm10, %xmm6
- pxor %xmm11, %xmm6
- pxor %xmm3, %xmm6
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm9
- jl L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last
- aesenc %xmm9, %xmm8
- aesenc 176(%rdi), %xmm8
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm9
- jl L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last
- aesenc %xmm9, %xmm8
- aesenc 208(%rdi), %xmm8
- movdqa 224(%rdi), %xmm9
- L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last:
- aesenclast %xmm9, %xmm8
- movdqu (%rcx), %xmm9
- pxor %xmm9, %xmm8
- movdqu %xmm8, (%rdx)
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
- pxor %xmm8, %xmm6
- addl $16, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_encrypt_update_aesni_last_block_start
- L_AES_GCM_encrypt_update_aesni_last_block_ghash:
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm6, %xmm10
- movdqa %xmm6, %xmm11
- movdqa %xmm6, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm6, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm6
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm6
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm6
- L_AES_GCM_encrypt_update_aesni_last_block_done:
- L_AES_GCM_encrypt_update_aesni_done_enc:
- movdqa %xmm6, (%r9)
- addq $0xa0, %rsp
- popq %r14
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_update_aesni,.-AES_GCM_encrypt_update_aesni
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_final_aesni
- .type AES_GCM_encrypt_final_aesni,@function
- .align 16
- AES_GCM_encrypt_final_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_final_aesni
- .p2align 4
- _AES_GCM_encrypt_final_aesni:
- #endif /* __APPLE__ */
- pushq %r13
- movl %edx, %eax
- movl %ecx, %r10d
- movl %r8d, %r11d
- movq 16(%rsp), %r8
- subq $16, %rsp
- movdqa (%rdi), %xmm4
- movdqa (%r9), %xmm5
- movdqa (%r8), %xmm6
- movdqa %xmm5, %xmm8
- movdqa %xmm5, %xmm7
- psrlq $63, %xmm8
- psllq $0x01, %xmm7
- pslldq $8, %xmm8
- por %xmm8, %xmm7
- pshufd $0xff, %xmm5, %xmm5
- psrad $31, %xmm5
- pand L_aes_gcm_mod2_128(%rip), %xmm5
- pxor %xmm7, %xmm5
- movl %r10d, %edx
- movl %r11d, %ecx
- shlq $3, %rdx
- shlq $3, %rcx
- pinsrq $0x00, %rdx, %xmm0
- pinsrq $0x01, %rcx, %xmm0
- pxor %xmm0, %xmm4
- pshufd $0x4e, %xmm5, %xmm8
- pshufd $0x4e, %xmm4, %xmm9
- movdqa %xmm4, %xmm10
- movdqa %xmm4, %xmm7
- pclmulqdq $0x11, %xmm5, %xmm10
- pclmulqdq $0x00, %xmm5, %xmm7
- pxor %xmm5, %xmm8
- pxor %xmm4, %xmm9
- pclmulqdq $0x00, %xmm9, %xmm8
- pxor %xmm7, %xmm8
- pxor %xmm10, %xmm8
- movdqa %xmm8, %xmm9
- movdqa %xmm10, %xmm4
- pslldq $8, %xmm9
- psrldq $8, %xmm8
- pxor %xmm9, %xmm7
- pxor %xmm8, %xmm4
- movdqa %xmm7, %xmm11
- movdqa %xmm7, %xmm12
- movdqa %xmm7, %xmm13
- pslld $31, %xmm11
- pslld $30, %xmm12
- pslld $25, %xmm13
- pxor %xmm12, %xmm11
- pxor %xmm13, %xmm11
- movdqa %xmm11, %xmm12
- psrldq $4, %xmm12
- pslldq $12, %xmm11
- pxor %xmm11, %xmm7
- movdqa %xmm7, %xmm13
- movdqa %xmm7, %xmm9
- movdqa %xmm7, %xmm8
- psrld $0x01, %xmm13
- psrld $2, %xmm9
- psrld $7, %xmm8
- pxor %xmm9, %xmm13
- pxor %xmm8, %xmm13
- pxor %xmm12, %xmm13
- pxor %xmm7, %xmm13
- pxor %xmm13, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
- movdqu %xmm6, %xmm0
- pxor %xmm4, %xmm0
- cmpl $16, %eax
- je L_AES_GCM_encrypt_final_aesni_store_tag_16
- xorq %rcx, %rcx
- movdqu %xmm0, (%rsp)
- L_AES_GCM_encrypt_final_aesni_store_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- movb %r13b, (%rsi,%rcx,1)
- incl %ecx
- cmpl %eax, %ecx
- jne L_AES_GCM_encrypt_final_aesni_store_tag_loop
- jmp L_AES_GCM_encrypt_final_aesni_store_tag_done
- L_AES_GCM_encrypt_final_aesni_store_tag_16:
- movdqu %xmm0, (%rsi)
- L_AES_GCM_encrypt_final_aesni_store_tag_done:
- addq $16, %rsp
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_final_aesni,.-AES_GCM_encrypt_final_aesni
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_update_aesni
- .type AES_GCM_decrypt_update_aesni,@function
- .align 16
- AES_GCM_decrypt_update_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_update_aesni
- .p2align 4
- _AES_GCM_decrypt_update_aesni:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %r14
- pushq %r15
- movq %rdx, %r10
- movq %rcx, %r11
- movq 40(%rsp), %rax
- movq 48(%rsp), %r12
- subq $0xa8, %rsp
- movdqa (%r9), %xmm6
- movdqa (%rax), %xmm5
- movdqa %xmm5, %xmm9
- movdqa %xmm5, %xmm8
- psrlq $63, %xmm9
- psllq $0x01, %xmm8
- pslldq $8, %xmm9
- por %xmm9, %xmm8
- pshufd $0xff, %xmm5, %xmm5
- psrad $31, %xmm5
- pand L_aes_gcm_mod2_128(%rip), %xmm5
- pxor %xmm8, %xmm5
- xorl %r14d, %r14d
- cmpl $0x80, %r8d
- movl %r8d, %r13d
- jl L_AES_GCM_decrypt_update_aesni_done_128
- andl $0xffffff80, %r13d
- movdqa %xmm6, %xmm2
- # H ^ 1
- movdqu %xmm5, (%rsp)
- # H ^ 2
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm5, %xmm10
- movdqa %xmm5, %xmm11
- movdqa %xmm5, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm5, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm0
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm0
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm0
- movdqu %xmm0, 16(%rsp)
- # H ^ 3
- pshufd $0x4e, %xmm5, %xmm9
- pshufd $0x4e, %xmm0, %xmm10
- movdqa %xmm0, %xmm11
- movdqa %xmm0, %xmm8
- pclmulqdq $0x11, %xmm5, %xmm11
- pclmulqdq $0x00, %xmm5, %xmm8
- pxor %xmm5, %xmm9
- pxor %xmm0, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm1
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm1
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm1
- movdqu %xmm1, 32(%rsp)
- # H ^ 4
- pshufd $0x4e, %xmm0, %xmm9
- pshufd $0x4e, %xmm0, %xmm10
- movdqa %xmm0, %xmm11
- movdqa %xmm0, %xmm8
- pclmulqdq $0x11, %xmm0, %xmm11
- pclmulqdq $0x00, %xmm0, %xmm8
- pxor %xmm0, %xmm9
- pxor %xmm0, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm3
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm3
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm3
- movdqu %xmm3, 48(%rsp)
- # H ^ 5
- pshufd $0x4e, %xmm0, %xmm9
- pshufd $0x4e, %xmm1, %xmm10
- movdqa %xmm1, %xmm11
- movdqa %xmm1, %xmm8
- pclmulqdq $0x11, %xmm0, %xmm11
- pclmulqdq $0x00, %xmm0, %xmm8
- pxor %xmm0, %xmm9
- pxor %xmm1, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 64(%rsp)
- # H ^ 6
- pshufd $0x4e, %xmm1, %xmm9
- pshufd $0x4e, %xmm1, %xmm10
- movdqa %xmm1, %xmm11
- movdqa %xmm1, %xmm8
- pclmulqdq $0x11, %xmm1, %xmm11
- pclmulqdq $0x00, %xmm1, %xmm8
- pxor %xmm1, %xmm9
- pxor %xmm1, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 80(%rsp)
- # H ^ 7
- pshufd $0x4e, %xmm1, %xmm9
- pshufd $0x4e, %xmm3, %xmm10
- movdqa %xmm3, %xmm11
- movdqa %xmm3, %xmm8
- pclmulqdq $0x11, %xmm1, %xmm11
- pclmulqdq $0x00, %xmm1, %xmm8
- pxor %xmm1, %xmm9
- pxor %xmm3, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 96(%rsp)
- # H ^ 8
- pshufd $0x4e, %xmm3, %xmm9
- pshufd $0x4e, %xmm3, %xmm10
- movdqa %xmm3, %xmm11
- movdqa %xmm3, %xmm8
- pclmulqdq $0x11, %xmm3, %xmm11
- pclmulqdq $0x00, %xmm3, %xmm8
- pxor %xmm3, %xmm9
- pxor %xmm3, %xmm10
- pclmulqdq $0x00, %xmm10, %xmm9
- pxor %xmm8, %xmm9
- pxor %xmm11, %xmm9
- movdqa %xmm9, %xmm10
- movdqa %xmm11, %xmm7
- pslldq $8, %xmm10
- psrldq $8, %xmm9
- pxor %xmm10, %xmm8
- pxor %xmm9, %xmm7
- movdqa %xmm8, %xmm12
- movdqa %xmm8, %xmm13
- movdqa %xmm8, %xmm14
- pslld $31, %xmm12
- pslld $30, %xmm13
- pslld $25, %xmm14
- pxor %xmm13, %xmm12
- pxor %xmm14, %xmm12
- movdqa %xmm12, %xmm13
- psrldq $4, %xmm13
- pslldq $12, %xmm12
- pxor %xmm12, %xmm8
- movdqa %xmm8, %xmm14
- movdqa %xmm8, %xmm10
- movdqa %xmm8, %xmm9
- psrld $0x01, %xmm14
- psrld $2, %xmm10
- psrld $7, %xmm9
- pxor %xmm10, %xmm14
- pxor %xmm9, %xmm14
- pxor %xmm13, %xmm14
- pxor %xmm8, %xmm14
- pxor %xmm14, %xmm7
- movdqu %xmm7, 112(%rsp)
- L_AES_GCM_decrypt_update_aesni_ghash_128:
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- movdqu (%r12), %xmm8
- movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
- movdqa %xmm8, %xmm0
- pshufb %xmm1, %xmm8
- movdqa %xmm0, %xmm9
- paddd L_aes_gcm_one(%rip), %xmm9
- pshufb %xmm1, %xmm9
- movdqa %xmm0, %xmm10
- paddd L_aes_gcm_two(%rip), %xmm10
- pshufb %xmm1, %xmm10
- movdqa %xmm0, %xmm11
- paddd L_aes_gcm_three(%rip), %xmm11
- pshufb %xmm1, %xmm11
- movdqa %xmm0, %xmm12
- paddd L_aes_gcm_four(%rip), %xmm12
- pshufb %xmm1, %xmm12
- movdqa %xmm0, %xmm13
- paddd L_aes_gcm_five(%rip), %xmm13
- pshufb %xmm1, %xmm13
- movdqa %xmm0, %xmm14
- paddd L_aes_gcm_six(%rip), %xmm14
- pshufb %xmm1, %xmm14
- movdqa %xmm0, %xmm15
- paddd L_aes_gcm_seven(%rip), %xmm15
- pshufb %xmm1, %xmm15
- paddd L_aes_gcm_eight(%rip), %xmm0
- movdqa (%rdi), %xmm7
- movdqu %xmm0, (%r12)
- pxor %xmm7, %xmm8
- pxor %xmm7, %xmm9
- pxor %xmm7, %xmm10
- pxor %xmm7, %xmm11
- pxor %xmm7, %xmm12
- pxor %xmm7, %xmm13
- pxor %xmm7, %xmm14
- pxor %xmm7, %xmm15
- movdqu 112(%rsp), %xmm7
- movdqu (%rcx), %xmm0
- aesenc 16(%rdi), %xmm8
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- pxor %xmm2, %xmm0
- pshufd $0x4e, %xmm7, %xmm1
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm7, %xmm1
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm3
- pclmulqdq $0x11, %xmm7, %xmm3
- aesenc 16(%rdi), %xmm9
- aesenc 16(%rdi), %xmm10
- movdqa %xmm0, %xmm2
- pclmulqdq $0x00, %xmm7, %xmm2
- aesenc 16(%rdi), %xmm11
- aesenc 16(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm1
- aesenc 16(%rdi), %xmm13
- aesenc 16(%rdi), %xmm14
- aesenc 16(%rdi), %xmm15
- pxor %xmm2, %xmm1
- pxor %xmm3, %xmm1
- movdqu 96(%rsp), %xmm7
- movdqu 16(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 32(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 32(%rdi), %xmm9
- aesenc 32(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 32(%rdi), %xmm11
- aesenc 32(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 32(%rdi), %xmm13
- aesenc 32(%rdi), %xmm14
- aesenc 32(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 80(%rsp), %xmm7
- movdqu 32(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 48(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 48(%rdi), %xmm9
- aesenc 48(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 48(%rdi), %xmm11
- aesenc 48(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 48(%rdi), %xmm13
- aesenc 48(%rdi), %xmm14
- aesenc 48(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 64(%rsp), %xmm7
- movdqu 48(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 64(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 64(%rdi), %xmm9
- aesenc 64(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 64(%rdi), %xmm11
- aesenc 64(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 64(%rdi), %xmm13
- aesenc 64(%rdi), %xmm14
- aesenc 64(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 48(%rsp), %xmm7
- movdqu 64(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 80(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 80(%rdi), %xmm9
- aesenc 80(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 80(%rdi), %xmm11
- aesenc 80(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 80(%rdi), %xmm13
- aesenc 80(%rdi), %xmm14
- aesenc 80(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 32(%rsp), %xmm7
- movdqu 80(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 96(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 96(%rdi), %xmm9
- aesenc 96(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 96(%rdi), %xmm11
- aesenc 96(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 96(%rdi), %xmm13
- aesenc 96(%rdi), %xmm14
- aesenc 96(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu 16(%rsp), %xmm7
- movdqu 96(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 112(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 112(%rdi), %xmm9
- aesenc 112(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 112(%rdi), %xmm11
- aesenc 112(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 112(%rdi), %xmm13
- aesenc 112(%rdi), %xmm14
- aesenc 112(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqu (%rsp), %xmm7
- movdqu 112(%rcx), %xmm0
- pshufd $0x4e, %xmm7, %xmm4
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
- aesenc 128(%rdi), %xmm8
- pxor %xmm7, %xmm4
- pshufd $0x4e, %xmm0, %xmm5
- pxor %xmm0, %xmm5
- movdqa %xmm0, %xmm6
- pclmulqdq $0x11, %xmm7, %xmm6
- aesenc 128(%rdi), %xmm9
- aesenc 128(%rdi), %xmm10
- pclmulqdq $0x00, %xmm0, %xmm7
- aesenc 128(%rdi), %xmm11
- aesenc 128(%rdi), %xmm12
- pclmulqdq $0x00, %xmm5, %xmm4
- aesenc 128(%rdi), %xmm13
- aesenc 128(%rdi), %xmm14
- aesenc 128(%rdi), %xmm15
- pxor %xmm7, %xmm1
- pxor %xmm7, %xmm2
- pxor %xmm6, %xmm1
- pxor %xmm6, %xmm3
- pxor %xmm4, %xmm1
- movdqa %xmm1, %xmm5
- psrldq $8, %xmm1
- pslldq $8, %xmm5
- aesenc 144(%rdi), %xmm8
- pxor %xmm5, %xmm2
- pxor %xmm1, %xmm3
- movdqa %xmm2, %xmm7
- movdqa %xmm2, %xmm4
- movdqa %xmm2, %xmm5
- aesenc 144(%rdi), %xmm9
- pslld $31, %xmm7
- pslld $30, %xmm4
- pslld $25, %xmm5
- aesenc 144(%rdi), %xmm10
- pxor %xmm4, %xmm7
- pxor %xmm5, %xmm7
- aesenc 144(%rdi), %xmm11
- movdqa %xmm7, %xmm4
- pslldq $12, %xmm7
- psrldq $4, %xmm4
- aesenc 144(%rdi), %xmm12
- pxor %xmm7, %xmm2
- movdqa %xmm2, %xmm5
- movdqa %xmm2, %xmm1
- movdqa %xmm2, %xmm0
- aesenc 144(%rdi), %xmm13
- psrld $0x01, %xmm5
- psrld $2, %xmm1
- psrld $7, %xmm0
- aesenc 144(%rdi), %xmm14
- pxor %xmm1, %xmm5
- pxor %xmm0, %xmm5
- aesenc 144(%rdi), %xmm15
- pxor %xmm4, %xmm5
- pxor %xmm5, %xmm2
- pxor %xmm3, %xmm2
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm7
- jl L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 176(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm7
- jl L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 208(%rdi), %xmm7
- aesenc %xmm7, %xmm8
- aesenc %xmm7, %xmm9
- aesenc %xmm7, %xmm10
- aesenc %xmm7, %xmm11
- aesenc %xmm7, %xmm12
- aesenc %xmm7, %xmm13
- aesenc %xmm7, %xmm14
- aesenc %xmm7, %xmm15
- movdqa 224(%rdi), %xmm7
- L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done:
- aesenclast %xmm7, %xmm8
- aesenclast %xmm7, %xmm9
- movdqu (%rcx), %xmm0
- movdqu 16(%rcx), %xmm1
- pxor %xmm0, %xmm8
- pxor %xmm1, %xmm9
- movdqu %xmm8, (%rdx)
- movdqu %xmm9, 16(%rdx)
- aesenclast %xmm7, %xmm10
- aesenclast %xmm7, %xmm11
- movdqu 32(%rcx), %xmm0
- movdqu 48(%rcx), %xmm1
- pxor %xmm0, %xmm10
- pxor %xmm1, %xmm11
- movdqu %xmm10, 32(%rdx)
- movdqu %xmm11, 48(%rdx)
- aesenclast %xmm7, %xmm12
- aesenclast %xmm7, %xmm13
- movdqu 64(%rcx), %xmm0
- movdqu 80(%rcx), %xmm1
- pxor %xmm0, %xmm12
- pxor %xmm1, %xmm13
- movdqu %xmm12, 64(%rdx)
- movdqu %xmm13, 80(%rdx)
- aesenclast %xmm7, %xmm14
- aesenclast %xmm7, %xmm15
- movdqu 96(%rcx), %xmm0
- movdqu 112(%rcx), %xmm1
- pxor %xmm0, %xmm14
- pxor %xmm1, %xmm15
- movdqu %xmm14, 96(%rdx)
- movdqu %xmm15, 112(%rdx)
- addl $0x80, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_decrypt_update_aesni_ghash_128
- movdqa %xmm2, %xmm6
- movdqu (%rsp), %xmm5
- L_AES_GCM_decrypt_update_aesni_done_128:
- movl %r8d, %edx
- cmpl %edx, %r14d
- jge L_AES_GCM_decrypt_update_aesni_done_dec
- movl %r8d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %r14d
- jge L_AES_GCM_decrypt_update_aesni_last_block_done
- L_AES_GCM_decrypt_update_aesni_last_block_start:
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- movdqu (%rcx), %xmm1
- movdqa %xmm5, %xmm0
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm1
- pxor %xmm6, %xmm1
- movdqu (%r12), %xmm8
- movdqa %xmm8, %xmm9
- pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
- paddd L_aes_gcm_one(%rip), %xmm9
- pxor (%rdi), %xmm8
- movdqu %xmm9, (%r12)
- movdqa %xmm1, %xmm10
- pclmulqdq $16, %xmm0, %xmm10
- aesenc 16(%rdi), %xmm8
- aesenc 32(%rdi), %xmm8
- movdqa %xmm1, %xmm11
- pclmulqdq $0x01, %xmm0, %xmm11
- aesenc 48(%rdi), %xmm8
- aesenc 64(%rdi), %xmm8
- movdqa %xmm1, %xmm12
- pclmulqdq $0x00, %xmm0, %xmm12
- aesenc 80(%rdi), %xmm8
- movdqa %xmm1, %xmm1
- pclmulqdq $0x11, %xmm0, %xmm1
- aesenc 96(%rdi), %xmm8
- pxor %xmm11, %xmm10
- movdqa %xmm10, %xmm2
- psrldq $8, %xmm10
- pslldq $8, %xmm2
- aesenc 112(%rdi), %xmm8
- movdqa %xmm1, %xmm3
- pxor %xmm12, %xmm2
- pxor %xmm10, %xmm3
- movdqa L_aes_gcm_mod2_128(%rip), %xmm0
- movdqa %xmm2, %xmm11
- pclmulqdq $16, %xmm0, %xmm11
- aesenc 128(%rdi), %xmm8
- pshufd $0x4e, %xmm2, %xmm10
- pxor %xmm11, %xmm10
- movdqa %xmm10, %xmm11
- pclmulqdq $16, %xmm0, %xmm11
- aesenc 144(%rdi), %xmm8
- pshufd $0x4e, %xmm10, %xmm6
- pxor %xmm11, %xmm6
- pxor %xmm3, %xmm6
- cmpl $11, %esi
- movdqa 160(%rdi), %xmm9
- jl L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last
- aesenc %xmm9, %xmm8
- aesenc 176(%rdi), %xmm8
- cmpl $13, %esi
- movdqa 192(%rdi), %xmm9
- jl L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last
- aesenc %xmm9, %xmm8
- aesenc 208(%rdi), %xmm8
- movdqa 224(%rdi), %xmm9
- L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last:
- aesenclast %xmm9, %xmm8
- movdqu (%rcx), %xmm9
- pxor %xmm9, %xmm8
- movdqu %xmm8, (%rdx)
- addl $16, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_decrypt_update_aesni_last_block_start
- L_AES_GCM_decrypt_update_aesni_last_block_done:
- L_AES_GCM_decrypt_update_aesni_done_dec:
- movdqa %xmm6, (%r9)
- addq $0xa8, %rsp
- popq %r15
- popq %r14
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_update_aesni,.-AES_GCM_decrypt_update_aesni
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_final_aesni
- .type AES_GCM_decrypt_final_aesni,@function
- .align 16
- AES_GCM_decrypt_final_aesni:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_final_aesni
- .p2align 4
- _AES_GCM_decrypt_final_aesni:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %rbp
- pushq %r12
- movl %edx, %eax
- movl %ecx, %r10d
- movl %r8d, %r11d
- movq 32(%rsp), %r8
- movq 40(%rsp), %rbp
- subq $16, %rsp
- movdqa (%rdi), %xmm6
- movdqa (%r9), %xmm5
- movdqa (%r8), %xmm15
- movdqa %xmm5, %xmm8
- movdqa %xmm5, %xmm7
- psrlq $63, %xmm8
- psllq $0x01, %xmm7
- pslldq $8, %xmm8
- por %xmm8, %xmm7
- pshufd $0xff, %xmm5, %xmm5
- psrad $31, %xmm5
- pand L_aes_gcm_mod2_128(%rip), %xmm5
- pxor %xmm7, %xmm5
- movl %r10d, %edx
- movl %r11d, %ecx
- shlq $3, %rdx
- shlq $3, %rcx
- pinsrq $0x00, %rdx, %xmm0
- pinsrq $0x01, %rcx, %xmm0
- pxor %xmm0, %xmm6
- pshufd $0x4e, %xmm5, %xmm8
- pshufd $0x4e, %xmm6, %xmm9
- movdqa %xmm6, %xmm10
- movdqa %xmm6, %xmm7
- pclmulqdq $0x11, %xmm5, %xmm10
- pclmulqdq $0x00, %xmm5, %xmm7
- pxor %xmm5, %xmm8
- pxor %xmm6, %xmm9
- pclmulqdq $0x00, %xmm9, %xmm8
- pxor %xmm7, %xmm8
- pxor %xmm10, %xmm8
- movdqa %xmm8, %xmm9
- movdqa %xmm10, %xmm6
- pslldq $8, %xmm9
- psrldq $8, %xmm8
- pxor %xmm9, %xmm7
- pxor %xmm8, %xmm6
- movdqa %xmm7, %xmm11
- movdqa %xmm7, %xmm12
- movdqa %xmm7, %xmm13
- pslld $31, %xmm11
- pslld $30, %xmm12
- pslld $25, %xmm13
- pxor %xmm12, %xmm11
- pxor %xmm13, %xmm11
- movdqa %xmm11, %xmm12
- psrldq $4, %xmm12
- pslldq $12, %xmm11
- pxor %xmm11, %xmm7
- movdqa %xmm7, %xmm13
- movdqa %xmm7, %xmm9
- movdqa %xmm7, %xmm8
- psrld $0x01, %xmm13
- psrld $2, %xmm9
- psrld $7, %xmm8
- pxor %xmm9, %xmm13
- pxor %xmm8, %xmm13
- pxor %xmm12, %xmm13
- pxor %xmm7, %xmm13
- pxor %xmm13, %xmm6
- pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
- movdqu %xmm15, %xmm0
- pxor %xmm6, %xmm0
- cmpl $16, %eax
- je L_AES_GCM_decrypt_final_aesni_cmp_tag_16
- subq $16, %rsp
- xorq %rcx, %rcx
- xorq %r12, %r12
- movdqu %xmm0, (%rsp)
- L_AES_GCM_decrypt_final_aesni_cmp_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- xorb (%rsi,%rcx,1), %r13b
- orb %r13b, %r12b
- incl %ecx
- cmpl %eax, %ecx
- jne L_AES_GCM_decrypt_final_aesni_cmp_tag_loop
- cmpb $0x00, %r12b
- sete %r12b
- addq $16, %rsp
- xorq %rcx, %rcx
- jmp L_AES_GCM_decrypt_final_aesni_cmp_tag_done
- L_AES_GCM_decrypt_final_aesni_cmp_tag_16:
- movdqu (%rsi), %xmm1
- pcmpeqb %xmm1, %xmm0
- pmovmskb %xmm0, %rdx
- # %%edx == 0xFFFF then return 1 else => return 0
- xorl %r12d, %r12d
- cmpl $0xffff, %edx
- sete %r12b
- L_AES_GCM_decrypt_final_aesni_cmp_tag_done:
- movl %r12d, (%rbp)
- addq $16, %rsp
- popq %r12
- popq %rbp
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_final_aesni,.-AES_GCM_decrypt_final_aesni
- #endif /* __APPLE__ */
- #endif /* WOLFSSL_AESGCM_STREAM */
- #ifdef HAVE_INTEL_AVX1
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_one:
- .quad 0x0, 0x1
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_two:
- .quad 0x0, 0x2
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_three:
- .quad 0x0, 0x3
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_four:
- .quad 0x0, 0x4
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_five:
- .quad 0x0, 0x5
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_six:
- .quad 0x0, 0x6
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_seven:
- .quad 0x0, 0x7
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_eight:
- .quad 0x0, 0x8
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_bswap_epi64:
- .quad 0x1020304050607, 0x8090a0b0c0d0e0f
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_bswap_mask:
- .quad 0x8090a0b0c0d0e0f, 0x1020304050607
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx1_aes_gcm_mod2_128:
- .quad 0x1, 0xc200000000000000
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_avx1
- .type AES_GCM_encrypt_avx1,@function
- .align 16
- AES_GCM_encrypt_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_avx1
- .p2align 4
- _AES_GCM_encrypt_avx1:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %rbx
- pushq %r14
- pushq %r15
- movq %rdx, %r12
- movq %rcx, %rax
- movl 48(%rsp), %r11d
- movl 56(%rsp), %ebx
- movl 64(%rsp), %r14d
- movq 72(%rsp), %r15
- movl 80(%rsp), %r10d
- subq $0xa0, %rsp
- vpxor %xmm4, %xmm4, %xmm4
- vpxor %xmm6, %xmm6, %xmm6
- movl %ebx, %edx
- cmpl $12, %edx
- jne L_AES_GCM_encrypt_avx1_iv_not_12
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- movl $0x1000000, %ecx
- vmovq (%rax), %xmm4
- vpinsrd $2, 8(%rax), %xmm4, %xmm4
- vpinsrd $3, %ecx, %xmm4, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- vmovdqa (%r15), %xmm5
- vpxor %xmm5, %xmm4, %xmm1
- vmovdqa 16(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 32(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 48(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 64(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 80(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 96(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 112(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 128(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 144(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm7
- jl L_AES_GCM_encrypt_avx1_calc_iv_12_last
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 176(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm7
- jl L_AES_GCM_encrypt_avx1_calc_iv_12_last
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 208(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 224(%r15), %xmm7
- L_AES_GCM_encrypt_avx1_calc_iv_12_last:
- vaesenclast %xmm7, %xmm5, %xmm5
- vaesenclast %xmm7, %xmm1, %xmm1
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- vmovdqu %xmm1, 144(%rsp)
- jmp L_AES_GCM_encrypt_avx1_iv_done
- L_AES_GCM_encrypt_avx1_iv_not_12:
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- vmovdqa (%r15), %xmm5
- vaesenc 16(%r15), %xmm5, %xmm5
- vaesenc 32(%r15), %xmm5, %xmm5
- vaesenc 48(%r15), %xmm5, %xmm5
- vaesenc 64(%r15), %xmm5, %xmm5
- vaesenc 80(%r15), %xmm5, %xmm5
- vaesenc 96(%r15), %xmm5, %xmm5
- vaesenc 112(%r15), %xmm5, %xmm5
- vaesenc 128(%r15), %xmm5, %xmm5
- vaesenc 144(%r15), %xmm5, %xmm5
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last
- vaesenc %xmm9, %xmm5, %xmm5
- vaesenc 176(%r15), %xmm5, %xmm5
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last
- vaesenc %xmm9, %xmm5, %xmm5
- vaesenc 208(%r15), %xmm5, %xmm5
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last:
- vaesenclast %xmm9, %xmm5, %xmm5
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_encrypt_avx1_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_encrypt_avx1_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_encrypt_avx1_calc_iv_16_loop:
- vmovdqu (%rax,%rcx,1), %xmm8
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_avx1_calc_iv_16_loop
- movl %ebx, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_encrypt_avx1_calc_iv_done
- L_AES_GCM_encrypt_avx1_calc_iv_lt16:
- subq $16, %rsp
- vpxor %xmm8, %xmm8, %xmm8
- xorl %ebx, %ebx
- vmovdqu %xmm8, (%rsp)
- L_AES_GCM_encrypt_avx1_calc_iv_loop:
- movzbl (%rax,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_avx1_calc_iv_loop
- vmovdqu (%rsp), %xmm8
- addq $16, %rsp
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- L_AES_GCM_encrypt_avx1_calc_iv_done:
- # T = Encrypt counter
- vpxor %xmm0, %xmm0, %xmm0
- shll $3, %edx
- vmovq %rdx, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- # Encrypt counter
- vmovdqa (%r15), %xmm8
- vpxor %xmm4, %xmm8, %xmm8
- vaesenc 16(%r15), %xmm8, %xmm8
- vaesenc 32(%r15), %xmm8, %xmm8
- vaesenc 48(%r15), %xmm8, %xmm8
- vaesenc 64(%r15), %xmm8, %xmm8
- vaesenc 80(%r15), %xmm8, %xmm8
- vaesenc 96(%r15), %xmm8, %xmm8
- vaesenc 112(%r15), %xmm8, %xmm8
- vaesenc 128(%r15), %xmm8, %xmm8
- vaesenc 144(%r15), %xmm8, %xmm8
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 176(%r15), %xmm8, %xmm8
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 208(%r15), %xmm8, %xmm8
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last:
- vaesenclast %xmm9, %xmm8, %xmm8
- vmovdqu %xmm8, 144(%rsp)
- L_AES_GCM_encrypt_avx1_iv_done:
- # Additional authentication data
- movl %r11d, %edx
- cmpl $0x00, %edx
- je L_AES_GCM_encrypt_avx1_calc_aad_done
- xorl %ecx, %ecx
- cmpl $16, %edx
- jl L_AES_GCM_encrypt_avx1_calc_aad_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_encrypt_avx1_calc_aad_16_loop:
- vmovdqu (%r12,%rcx,1), %xmm8
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm6, %xmm6
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm6, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm6, %xmm6
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm6, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm6, %xmm6
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm6, %xmm6
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm6, %xmm6
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm6, %xmm6
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_avx1_calc_aad_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_encrypt_avx1_calc_aad_done
- L_AES_GCM_encrypt_avx1_calc_aad_lt16:
- subq $16, %rsp
- vpxor %xmm8, %xmm8, %xmm8
- xorl %ebx, %ebx
- vmovdqu %xmm8, (%rsp)
- L_AES_GCM_encrypt_avx1_calc_aad_loop:
- movzbl (%r12,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_avx1_calc_aad_loop
- vmovdqu (%rsp), %xmm8
- addq $16, %rsp
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm6, %xmm6
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm6, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm6, %xmm6
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm6, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm6, %xmm6
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm6, %xmm6
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm6, %xmm6
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm6, %xmm6
- L_AES_GCM_encrypt_avx1_calc_aad_done:
- # Calculate counter and H
- vpsrlq $63, %xmm5, %xmm9
- vpsllq $0x01, %xmm5, %xmm8
- vpslldq $8, %xmm9, %xmm9
- vpor %xmm9, %xmm8, %xmm8
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
- vpxor %xmm8, %xmm5, %xmm5
- vmovdqu %xmm4, 128(%rsp)
- xorl %ebx, %ebx
- cmpl $0x80, %r9d
- movl %r9d, %r13d
- jl L_AES_GCM_encrypt_avx1_done_128
- andl $0xffffff80, %r13d
- vmovdqa %xmm6, %xmm2
- # H ^ 1
- vmovdqu %xmm5, (%rsp)
- # H ^ 2
- vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
- vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm0, %xmm0
- vmovdqu %xmm0, 16(%rsp)
- # H ^ 3
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm0, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm0, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm1
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm1, %xmm1
- vmovdqu %xmm1, 32(%rsp)
- # H ^ 4
- vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
- vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm3, %xmm3
- vmovdqu %xmm3, 48(%rsp)
- # H ^ 5
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm0, %xmm9
- vpshufd $0x4e, %xmm1, %xmm10
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
- vpxor %xmm0, %xmm9, %xmm9
- vpxor %xmm1, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 64(%rsp)
- # H ^ 6
- vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
- vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 80(%rsp)
- # H ^ 7
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm1, %xmm9
- vpshufd $0x4e, %xmm3, %xmm10
- vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
- vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm3, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 96(%rsp)
- # H ^ 8
- vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
- vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 112(%rsp)
- # First 128 bytes of input
- vmovdqu 128(%rsp), %xmm0
- vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm15, %xmm15
- vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
- vmovdqa (%r15), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- vmovdqa 16(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 32(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 48(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 64(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 80(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 96(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 112(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 128(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 144(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm7
- jl L_AES_GCM_encrypt_avx1_aesenc_128_enc_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 176(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm7
- jl L_AES_GCM_encrypt_avx1_aesenc_128_enc_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 208(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 224(%r15), %xmm7
- L_AES_GCM_encrypt_avx1_aesenc_128_enc_done:
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vmovdqu (%rdi), %xmm0
- vmovdqu 16(%rdi), %xmm1
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vmovdqu %xmm8, (%rsi)
- vmovdqu %xmm9, 16(%rsi)
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu 32(%rdi), %xmm0
- vmovdqu 48(%rdi), %xmm1
- vpxor %xmm0, %xmm10, %xmm10
- vpxor %xmm1, %xmm11, %xmm11
- vmovdqu %xmm10, 32(%rsi)
- vmovdqu %xmm11, 48(%rsi)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vmovdqu 64(%rdi), %xmm0
- vmovdqu 80(%rdi), %xmm1
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vmovdqu %xmm12, 64(%rsi)
- vmovdqu %xmm13, 80(%rsi)
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 96(%rdi), %xmm0
- vmovdqu 112(%rdi), %xmm1
- vpxor %xmm0, %xmm14, %xmm14
- vpxor %xmm1, %xmm15, %xmm15
- vmovdqu %xmm14, 96(%rsi)
- vmovdqu %xmm15, 112(%rsi)
- cmpl $0x80, %r13d
- movl $0x80, %ebx
- jle L_AES_GCM_encrypt_avx1_end_128
- # More 128 bytes of input
- L_AES_GCM_encrypt_avx1_ghash_128:
- leaq (%rdi,%rbx,1), %rcx
- leaq (%rsi,%rbx,1), %rdx
- vmovdqu 128(%rsp), %xmm0
- vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm15, %xmm15
- vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
- vmovdqa (%r15), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- vmovdqu 112(%rsp), %xmm7
- vmovdqu -128(%rdx), %xmm0
- vaesenc 16(%r15), %xmm8, %xmm8
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
- vaesenc 16(%r15), %xmm9, %xmm9
- vaesenc 16(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
- vaesenc 16(%r15), %xmm11, %xmm11
- vaesenc 16(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
- vaesenc 16(%r15), %xmm13, %xmm13
- vaesenc 16(%r15), %xmm14, %xmm14
- vaesenc 16(%r15), %xmm15, %xmm15
- vpxor %xmm2, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqu 96(%rsp), %xmm7
- vmovdqu -112(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 32(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 32(%r15), %xmm9, %xmm9
- vaesenc 32(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 32(%r15), %xmm11, %xmm11
- vaesenc 32(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 32(%r15), %xmm13, %xmm13
- vaesenc 32(%r15), %xmm14, %xmm14
- vaesenc 32(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 80(%rsp), %xmm7
- vmovdqu -96(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 48(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 48(%r15), %xmm9, %xmm9
- vaesenc 48(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 48(%r15), %xmm11, %xmm11
- vaesenc 48(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 48(%r15), %xmm13, %xmm13
- vaesenc 48(%r15), %xmm14, %xmm14
- vaesenc 48(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 64(%rsp), %xmm7
- vmovdqu -80(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 64(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 64(%r15), %xmm9, %xmm9
- vaesenc 64(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 64(%r15), %xmm11, %xmm11
- vaesenc 64(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 64(%r15), %xmm13, %xmm13
- vaesenc 64(%r15), %xmm14, %xmm14
- vaesenc 64(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 48(%rsp), %xmm7
- vmovdqu -64(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 80(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 80(%r15), %xmm9, %xmm9
- vaesenc 80(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 80(%r15), %xmm11, %xmm11
- vaesenc 80(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 80(%r15), %xmm13, %xmm13
- vaesenc 80(%r15), %xmm14, %xmm14
- vaesenc 80(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 32(%rsp), %xmm7
- vmovdqu -48(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 96(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 96(%r15), %xmm9, %xmm9
- vaesenc 96(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 96(%r15), %xmm11, %xmm11
- vaesenc 96(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 96(%r15), %xmm13, %xmm13
- vaesenc 96(%r15), %xmm14, %xmm14
- vaesenc 96(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 16(%rsp), %xmm7
- vmovdqu -32(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 112(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 112(%r15), %xmm9, %xmm9
- vaesenc 112(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 112(%r15), %xmm11, %xmm11
- vaesenc 112(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 112(%r15), %xmm13, %xmm13
- vaesenc 112(%r15), %xmm14, %xmm14
- vaesenc 112(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu (%rsp), %xmm7
- vmovdqu -16(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 128(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 128(%r15), %xmm9, %xmm9
- vaesenc 128(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 128(%r15), %xmm11, %xmm11
- vaesenc 128(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 128(%r15), %xmm13, %xmm13
- vaesenc 128(%r15), %xmm14, %xmm14
- vaesenc 128(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vpslldq $8, %xmm1, %xmm5
- vpsrldq $8, %xmm1, %xmm1
- vaesenc 144(%r15), %xmm8, %xmm8
- vpxor %xmm5, %xmm2, %xmm2
- vpxor %xmm1, %xmm3, %xmm3
- vaesenc 144(%r15), %xmm9, %xmm9
- vpslld $31, %xmm2, %xmm7
- vpslld $30, %xmm2, %xmm4
- vpslld $25, %xmm2, %xmm5
- vaesenc 144(%r15), %xmm10, %xmm10
- vpxor %xmm4, %xmm7, %xmm7
- vpxor %xmm5, %xmm7, %xmm7
- vaesenc 144(%r15), %xmm11, %xmm11
- vpsrldq $4, %xmm7, %xmm4
- vpslldq $12, %xmm7, %xmm7
- vaesenc 144(%r15), %xmm12, %xmm12
- vpxor %xmm7, %xmm2, %xmm2
- vpsrld $0x01, %xmm2, %xmm5
- vaesenc 144(%r15), %xmm13, %xmm13
- vpsrld $2, %xmm2, %xmm1
- vpsrld $7, %xmm2, %xmm0
- vaesenc 144(%r15), %xmm14, %xmm14
- vpxor %xmm1, %xmm5, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vaesenc 144(%r15), %xmm15, %xmm15
- vpxor %xmm4, %xmm5, %xmm5
- vpxor %xmm5, %xmm2, %xmm2
- vpxor %xmm3, %xmm2, %xmm2
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm7
- jl L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 176(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm7
- jl L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 208(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 224(%r15), %xmm7
- L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done:
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vmovdqu (%rcx), %xmm0
- vmovdqu 16(%rcx), %xmm1
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vmovdqu %xmm8, (%rdx)
- vmovdqu %xmm9, 16(%rdx)
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu 32(%rcx), %xmm0
- vmovdqu 48(%rcx), %xmm1
- vpxor %xmm0, %xmm10, %xmm10
- vpxor %xmm1, %xmm11, %xmm11
- vmovdqu %xmm10, 32(%rdx)
- vmovdqu %xmm11, 48(%rdx)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vmovdqu 64(%rcx), %xmm0
- vmovdqu 80(%rcx), %xmm1
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vmovdqu %xmm12, 64(%rdx)
- vmovdqu %xmm13, 80(%rdx)
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 96(%rcx), %xmm0
- vmovdqu 112(%rcx), %xmm1
- vpxor %xmm0, %xmm14, %xmm14
- vpxor %xmm1, %xmm15, %xmm15
- vmovdqu %xmm14, 96(%rdx)
- vmovdqu %xmm15, 112(%rdx)
- addl $0x80, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_encrypt_avx1_ghash_128
- L_AES_GCM_encrypt_avx1_end_128:
- vmovdqa L_avx1_aes_gcm_bswap_mask(%rip), %xmm4
- vpshufb %xmm4, %xmm8, %xmm8
- vpshufb %xmm4, %xmm9, %xmm9
- vpshufb %xmm4, %xmm10, %xmm10
- vpshufb %xmm4, %xmm11, %xmm11
- vpxor %xmm2, %xmm8, %xmm8
- vpshufb %xmm4, %xmm12, %xmm12
- vpshufb %xmm4, %xmm13, %xmm13
- vpshufb %xmm4, %xmm14, %xmm14
- vpshufb %xmm4, %xmm15, %xmm15
- vmovdqu (%rsp), %xmm7
- vmovdqu 16(%rsp), %xmm5
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm15, %xmm1
- vpshufd $0x4e, %xmm7, %xmm2
- vpclmulqdq $0x11, %xmm15, %xmm7, %xmm3
- vpclmulqdq $0x00, %xmm15, %xmm7, %xmm0
- vpxor %xmm15, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm4
- vmovdqa %xmm3, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm14, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm14, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm14, %xmm5, %xmm0
- vpxor %xmm14, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- vmovdqu 32(%rsp), %xmm7
- vmovdqu 48(%rsp), %xmm5
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm13, %xmm1
- vpshufd $0x4e, %xmm7, %xmm2
- vpclmulqdq $0x11, %xmm13, %xmm7, %xmm3
- vpclmulqdq $0x00, %xmm13, %xmm7, %xmm0
- vpxor %xmm13, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm12, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm12, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm12, %xmm5, %xmm0
- vpxor %xmm12, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- vmovdqu 64(%rsp), %xmm7
- vmovdqu 80(%rsp), %xmm5
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm11, %xmm1
- vpshufd $0x4e, %xmm7, %xmm2
- vpclmulqdq $0x11, %xmm11, %xmm7, %xmm3
- vpclmulqdq $0x00, %xmm11, %xmm7, %xmm0
- vpxor %xmm11, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm10, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm10, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm10, %xmm5, %xmm0
- vpxor %xmm10, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- vmovdqu 96(%rsp), %xmm7
- vmovdqu 112(%rsp), %xmm5
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm9, %xmm1
- vpshufd $0x4e, %xmm7, %xmm2
- vpclmulqdq $0x11, %xmm9, %xmm7, %xmm3
- vpclmulqdq $0x00, %xmm9, %xmm7, %xmm0
- vpxor %xmm9, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm8, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm8, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm8, %xmm5, %xmm0
- vpxor %xmm8, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- vpslld $31, %xmm4, %xmm0
- vpslld $30, %xmm4, %xmm1
- vpslld $25, %xmm4, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- vpsrld $0x01, %xmm4, %xmm2
- vpsrld $2, %xmm4, %xmm3
- vpsrld $7, %xmm4, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm4, %xmm2, %xmm2
- vpxor %xmm2, %xmm6, %xmm6
- vmovdqu (%rsp), %xmm5
- L_AES_GCM_encrypt_avx1_done_128:
- movl %r9d, %edx
- cmpl %edx, %ebx
- jge L_AES_GCM_encrypt_avx1_done_enc
- movl %r9d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %ebx
- jge L_AES_GCM_encrypt_avx1_last_block_done
- vmovdqu 128(%rsp), %xmm9
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
- vmovdqu %xmm9, 128(%rsp)
- vpxor (%r15), %xmm8, %xmm8
- vaesenc 16(%r15), %xmm8, %xmm8
- vaesenc 32(%r15), %xmm8, %xmm8
- vaesenc 48(%r15), %xmm8, %xmm8
- vaesenc 64(%r15), %xmm8, %xmm8
- vaesenc 80(%r15), %xmm8, %xmm8
- vaesenc 96(%r15), %xmm8, %xmm8
- vaesenc 112(%r15), %xmm8, %xmm8
- vaesenc 128(%r15), %xmm8, %xmm8
- vaesenc 144(%r15), %xmm8, %xmm8
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_aesenc_block_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 176(%r15), %xmm8, %xmm8
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_aesenc_block_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 208(%r15), %xmm8, %xmm8
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_avx1_aesenc_block_last:
- vaesenclast %xmm9, %xmm8, %xmm8
- vmovdqu (%rdi,%rbx,1), %xmm9
- vpxor %xmm9, %xmm8, %xmm8
- vmovdqu %xmm8, (%rsi,%rbx,1)
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm6, %xmm6
- addl $16, %ebx
- cmpl %r13d, %ebx
- jge L_AES_GCM_encrypt_avx1_last_block_ghash
- L_AES_GCM_encrypt_avx1_last_block_start:
- vmovdqu (%rdi,%rbx,1), %xmm13
- vmovdqu 128(%rsp), %xmm9
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
- vmovdqu %xmm9, 128(%rsp)
- vpxor (%r15), %xmm8, %xmm8
- vpclmulqdq $16, %xmm5, %xmm6, %xmm10
- vaesenc 16(%r15), %xmm8, %xmm8
- vaesenc 32(%r15), %xmm8, %xmm8
- vpclmulqdq $0x01, %xmm5, %xmm6, %xmm11
- vaesenc 48(%r15), %xmm8, %xmm8
- vaesenc 64(%r15), %xmm8, %xmm8
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm12
- vaesenc 80(%r15), %xmm8, %xmm8
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm1
- vaesenc 96(%r15), %xmm8, %xmm8
- vpxor %xmm11, %xmm10, %xmm10
- vpslldq $8, %xmm10, %xmm2
- vpsrldq $8, %xmm10, %xmm10
- vaesenc 112(%r15), %xmm8, %xmm8
- vpxor %xmm12, %xmm2, %xmm2
- vpxor %xmm10, %xmm1, %xmm3
- vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
- vpclmulqdq $16, %xmm0, %xmm2, %xmm11
- vaesenc 128(%r15), %xmm8, %xmm8
- vpshufd $0x4e, %xmm2, %xmm10
- vpxor %xmm11, %xmm10, %xmm10
- vpclmulqdq $16, %xmm0, %xmm10, %xmm11
- vaesenc 144(%r15), %xmm8, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpxor %xmm11, %xmm10, %xmm10
- vpxor %xmm3, %xmm10, %xmm6
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_aesenc_gfmul_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 176(%r15), %xmm8, %xmm8
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_aesenc_gfmul_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 208(%r15), %xmm8, %xmm8
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_avx1_aesenc_gfmul_last:
- vaesenclast %xmm9, %xmm8, %xmm8
- vmovdqa %xmm13, %xmm0
- vpxor %xmm0, %xmm8, %xmm8
- vmovdqu %xmm8, (%rsi,%rbx,1)
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- addl $16, %ebx
- vpxor %xmm8, %xmm6, %xmm6
- cmpl %r13d, %ebx
- jl L_AES_GCM_encrypt_avx1_last_block_start
- L_AES_GCM_encrypt_avx1_last_block_ghash:
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm6, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm6, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm6
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm6, %xmm6
- L_AES_GCM_encrypt_avx1_last_block_done:
- movl %r9d, %ecx
- movl %ecx, %edx
- andl $15, %ecx
- jz L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_done
- vmovdqu 128(%rsp), %xmm4
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpxor (%r15), %xmm4, %xmm4
- vaesenc 16(%r15), %xmm4, %xmm4
- vaesenc 32(%r15), %xmm4, %xmm4
- vaesenc 48(%r15), %xmm4, %xmm4
- vaesenc 64(%r15), %xmm4, %xmm4
- vaesenc 80(%r15), %xmm4, %xmm4
- vaesenc 96(%r15), %xmm4, %xmm4
- vaesenc 112(%r15), %xmm4, %xmm4
- vaesenc 128(%r15), %xmm4, %xmm4
- vaesenc 144(%r15), %xmm4, %xmm4
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last
- vaesenc %xmm9, %xmm4, %xmm4
- vaesenc 176(%r15), %xmm4, %xmm4
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last
- vaesenc %xmm9, %xmm4, %xmm4
- vaesenc 208(%r15), %xmm4, %xmm4
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last:
- vaesenclast %xmm9, %xmm4, %xmm4
- subq $16, %rsp
- xorl %ecx, %ecx
- vmovdqu %xmm4, (%rsp)
- L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_loop:
- movzbl (%rdi,%rbx,1), %r13d
- xorb (%rsp,%rcx,1), %r13b
- movb %r13b, (%rsi,%rbx,1)
- movb %r13b, (%rsp,%rcx,1)
- incl %ebx
- incl %ecx
- cmpl %edx, %ebx
- jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_loop
- xorq %r13, %r13
- cmpl $16, %ecx
- je L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_finish_enc
- L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_byte_loop:
- movb %r13b, (%rsp,%rcx,1)
- incl %ecx
- cmpl $16, %ecx
- jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_byte_loop
- L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_finish_enc:
- vmovdqu (%rsp), %xmm4
- addq $16, %rsp
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- vpxor %xmm4, %xmm6, %xmm6
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm6, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm6, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm6
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm6, %xmm6
- L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_done:
- L_AES_GCM_encrypt_avx1_done_enc:
- movl %r9d, %edx
- movl %r11d, %ecx
- shlq $3, %rdx
- shlq $3, %rcx
- vmovq %rdx, %xmm0
- vmovq %rcx, %xmm1
- vpunpcklqdq %xmm1, %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm6, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm6, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm6
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm6, %xmm6
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
- vmovdqu 144(%rsp), %xmm0
- vpxor %xmm6, %xmm0, %xmm0
- cmpl $16, %r14d
- je L_AES_GCM_encrypt_avx1_store_tag_16
- xorq %rcx, %rcx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_encrypt_avx1_store_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- movb %r13b, (%r8,%rcx,1)
- incl %ecx
- cmpl %r14d, %ecx
- jne L_AES_GCM_encrypt_avx1_store_tag_loop
- jmp L_AES_GCM_encrypt_avx1_store_tag_done
- L_AES_GCM_encrypt_avx1_store_tag_16:
- vmovdqu %xmm0, (%r8)
- L_AES_GCM_encrypt_avx1_store_tag_done:
- vzeroupper
- addq $0xa0, %rsp
- popq %r15
- popq %r14
- popq %rbx
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_avx1,.-AES_GCM_encrypt_avx1
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_avx1
- .type AES_GCM_decrypt_avx1,@function
- .align 16
- AES_GCM_decrypt_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_avx1
- .p2align 4
- _AES_GCM_decrypt_avx1:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %rbx
- pushq %r14
- pushq %r15
- pushq %rbp
- movq %rdx, %r12
- movq %rcx, %rax
- movl 56(%rsp), %r11d
- movl 64(%rsp), %ebx
- movl 72(%rsp), %r14d
- movq 80(%rsp), %r15
- movl 88(%rsp), %r10d
- movq 96(%rsp), %rbp
- subq $0xa8, %rsp
- vpxor %xmm4, %xmm4, %xmm4
- vpxor %xmm6, %xmm6, %xmm6
- cmpl $12, %ebx
- movl %ebx, %edx
- jne L_AES_GCM_decrypt_avx1_iv_not_12
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- movl $0x1000000, %ecx
- vmovq (%rax), %xmm4
- vpinsrd $2, 8(%rax), %xmm4, %xmm4
- vpinsrd $3, %ecx, %xmm4, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- vmovdqa (%r15), %xmm5
- vpxor %xmm5, %xmm4, %xmm1
- vmovdqa 16(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 32(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 48(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 64(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 80(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 96(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 112(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 128(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 144(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm7
- jl L_AES_GCM_decrypt_avx1_calc_iv_12_last
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 176(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm7
- jl L_AES_GCM_decrypt_avx1_calc_iv_12_last
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 208(%r15), %xmm7
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm1, %xmm1
- vmovdqa 224(%r15), %xmm7
- L_AES_GCM_decrypt_avx1_calc_iv_12_last:
- vaesenclast %xmm7, %xmm5, %xmm5
- vaesenclast %xmm7, %xmm1, %xmm1
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- vmovdqu %xmm1, 144(%rsp)
- jmp L_AES_GCM_decrypt_avx1_iv_done
- L_AES_GCM_decrypt_avx1_iv_not_12:
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- vmovdqa (%r15), %xmm5
- vaesenc 16(%r15), %xmm5, %xmm5
- vaesenc 32(%r15), %xmm5, %xmm5
- vaesenc 48(%r15), %xmm5, %xmm5
- vaesenc 64(%r15), %xmm5, %xmm5
- vaesenc 80(%r15), %xmm5, %xmm5
- vaesenc 96(%r15), %xmm5, %xmm5
- vaesenc 112(%r15), %xmm5, %xmm5
- vaesenc 128(%r15), %xmm5, %xmm5
- vaesenc 144(%r15), %xmm5, %xmm5
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last
- vaesenc %xmm9, %xmm5, %xmm5
- vaesenc 176(%r15), %xmm5, %xmm5
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last
- vaesenc %xmm9, %xmm5, %xmm5
- vaesenc 208(%r15), %xmm5, %xmm5
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last:
- vaesenclast %xmm9, %xmm5, %xmm5
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_decrypt_avx1_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_decrypt_avx1_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_decrypt_avx1_calc_iv_16_loop:
- vmovdqu (%rax,%rcx,1), %xmm8
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_avx1_calc_iv_16_loop
- movl %ebx, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_decrypt_avx1_calc_iv_done
- L_AES_GCM_decrypt_avx1_calc_iv_lt16:
- subq $16, %rsp
- vpxor %xmm8, %xmm8, %xmm8
- xorl %ebx, %ebx
- vmovdqu %xmm8, (%rsp)
- L_AES_GCM_decrypt_avx1_calc_iv_loop:
- movzbl (%rax,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_avx1_calc_iv_loop
- vmovdqu (%rsp), %xmm8
- addq $16, %rsp
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- L_AES_GCM_decrypt_avx1_calc_iv_done:
- # T = Encrypt counter
- vpxor %xmm0, %xmm0, %xmm0
- shll $3, %edx
- vmovq %rdx, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- # Encrypt counter
- vmovdqa (%r15), %xmm8
- vpxor %xmm4, %xmm8, %xmm8
- vaesenc 16(%r15), %xmm8, %xmm8
- vaesenc 32(%r15), %xmm8, %xmm8
- vaesenc 48(%r15), %xmm8, %xmm8
- vaesenc 64(%r15), %xmm8, %xmm8
- vaesenc 80(%r15), %xmm8, %xmm8
- vaesenc 96(%r15), %xmm8, %xmm8
- vaesenc 112(%r15), %xmm8, %xmm8
- vaesenc 128(%r15), %xmm8, %xmm8
- vaesenc 144(%r15), %xmm8, %xmm8
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 176(%r15), %xmm8, %xmm8
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 208(%r15), %xmm8, %xmm8
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last:
- vaesenclast %xmm9, %xmm8, %xmm8
- vmovdqu %xmm8, 144(%rsp)
- L_AES_GCM_decrypt_avx1_iv_done:
- # Additional authentication data
- movl %r11d, %edx
- cmpl $0x00, %edx
- je L_AES_GCM_decrypt_avx1_calc_aad_done
- xorl %ecx, %ecx
- cmpl $16, %edx
- jl L_AES_GCM_decrypt_avx1_calc_aad_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_decrypt_avx1_calc_aad_16_loop:
- vmovdqu (%r12,%rcx,1), %xmm8
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm6, %xmm6
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm6, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm6, %xmm6
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm6, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm6, %xmm6
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm6, %xmm6
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm6, %xmm6
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm6, %xmm6
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_avx1_calc_aad_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_decrypt_avx1_calc_aad_done
- L_AES_GCM_decrypt_avx1_calc_aad_lt16:
- subq $16, %rsp
- vpxor %xmm8, %xmm8, %xmm8
- xorl %ebx, %ebx
- vmovdqu %xmm8, (%rsp)
- L_AES_GCM_decrypt_avx1_calc_aad_loop:
- movzbl (%r12,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_avx1_calc_aad_loop
- vmovdqu (%rsp), %xmm8
- addq $16, %rsp
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm6, %xmm6
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm6, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm7
- vmovdqa %xmm3, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm7, %xmm7
- vpxor %xmm1, %xmm6, %xmm6
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm6, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm6, %xmm6
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm6, %xmm6
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm6, %xmm6
- vpslld $31, %xmm7, %xmm0
- vpslld $30, %xmm7, %xmm1
- vpslld $25, %xmm7, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm2
- vpsrld $2, %xmm7, %xmm3
- vpsrld $7, %xmm7, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm2, %xmm6, %xmm6
- L_AES_GCM_decrypt_avx1_calc_aad_done:
- # Calculate counter and H
- vpsrlq $63, %xmm5, %xmm9
- vpsllq $0x01, %xmm5, %xmm8
- vpslldq $8, %xmm9, %xmm9
- vpor %xmm9, %xmm8, %xmm8
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
- vpxor %xmm8, %xmm5, %xmm5
- vmovdqu %xmm4, 128(%rsp)
- xorl %ebx, %ebx
- cmpl $0x80, %r9d
- movl %r9d, %r13d
- jl L_AES_GCM_decrypt_avx1_done_128
- andl $0xffffff80, %r13d
- vmovdqa %xmm6, %xmm2
- # H ^ 1
- vmovdqu %xmm5, (%rsp)
- # H ^ 2
- vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
- vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm0, %xmm0
- vmovdqu %xmm0, 16(%rsp)
- # H ^ 3
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm0, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm0, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm1
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm1, %xmm1
- vmovdqu %xmm1, 32(%rsp)
- # H ^ 4
- vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
- vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm3, %xmm3
- vmovdqu %xmm3, 48(%rsp)
- # H ^ 5
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm0, %xmm9
- vpshufd $0x4e, %xmm1, %xmm10
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
- vpxor %xmm0, %xmm9, %xmm9
- vpxor %xmm1, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 64(%rsp)
- # H ^ 6
- vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
- vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 80(%rsp)
- # H ^ 7
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm1, %xmm9
- vpshufd $0x4e, %xmm3, %xmm10
- vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
- vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm3, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 96(%rsp)
- # H ^ 8
- vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
- vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 112(%rsp)
- L_AES_GCM_decrypt_avx1_ghash_128:
- leaq (%rdi,%rbx,1), %rcx
- leaq (%rsi,%rbx,1), %rdx
- vmovdqu 128(%rsp), %xmm0
- vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm15, %xmm15
- vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
- vmovdqa (%r15), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- vmovdqu 112(%rsp), %xmm7
- vmovdqu (%rcx), %xmm0
- vaesenc 16(%r15), %xmm8, %xmm8
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
- vaesenc 16(%r15), %xmm9, %xmm9
- vaesenc 16(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
- vaesenc 16(%r15), %xmm11, %xmm11
- vaesenc 16(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
- vaesenc 16(%r15), %xmm13, %xmm13
- vaesenc 16(%r15), %xmm14, %xmm14
- vaesenc 16(%r15), %xmm15, %xmm15
- vpxor %xmm2, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqu 96(%rsp), %xmm7
- vmovdqu 16(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 32(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 32(%r15), %xmm9, %xmm9
- vaesenc 32(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 32(%r15), %xmm11, %xmm11
- vaesenc 32(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 32(%r15), %xmm13, %xmm13
- vaesenc 32(%r15), %xmm14, %xmm14
- vaesenc 32(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 80(%rsp), %xmm7
- vmovdqu 32(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 48(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 48(%r15), %xmm9, %xmm9
- vaesenc 48(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 48(%r15), %xmm11, %xmm11
- vaesenc 48(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 48(%r15), %xmm13, %xmm13
- vaesenc 48(%r15), %xmm14, %xmm14
- vaesenc 48(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 64(%rsp), %xmm7
- vmovdqu 48(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 64(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 64(%r15), %xmm9, %xmm9
- vaesenc 64(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 64(%r15), %xmm11, %xmm11
- vaesenc 64(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 64(%r15), %xmm13, %xmm13
- vaesenc 64(%r15), %xmm14, %xmm14
- vaesenc 64(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 48(%rsp), %xmm7
- vmovdqu 64(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 80(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 80(%r15), %xmm9, %xmm9
- vaesenc 80(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 80(%r15), %xmm11, %xmm11
- vaesenc 80(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 80(%r15), %xmm13, %xmm13
- vaesenc 80(%r15), %xmm14, %xmm14
- vaesenc 80(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 32(%rsp), %xmm7
- vmovdqu 80(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 96(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 96(%r15), %xmm9, %xmm9
- vaesenc 96(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 96(%r15), %xmm11, %xmm11
- vaesenc 96(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 96(%r15), %xmm13, %xmm13
- vaesenc 96(%r15), %xmm14, %xmm14
- vaesenc 96(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 16(%rsp), %xmm7
- vmovdqu 96(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 112(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 112(%r15), %xmm9, %xmm9
- vaesenc 112(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 112(%r15), %xmm11, %xmm11
- vaesenc 112(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 112(%r15), %xmm13, %xmm13
- vaesenc 112(%r15), %xmm14, %xmm14
- vaesenc 112(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu (%rsp), %xmm7
- vmovdqu 112(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 128(%r15), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 128(%r15), %xmm9, %xmm9
- vaesenc 128(%r15), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 128(%r15), %xmm11, %xmm11
- vaesenc 128(%r15), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 128(%r15), %xmm13, %xmm13
- vaesenc 128(%r15), %xmm14, %xmm14
- vaesenc 128(%r15), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vpslldq $8, %xmm1, %xmm5
- vpsrldq $8, %xmm1, %xmm1
- vaesenc 144(%r15), %xmm8, %xmm8
- vpxor %xmm5, %xmm2, %xmm2
- vpxor %xmm1, %xmm3, %xmm3
- vaesenc 144(%r15), %xmm9, %xmm9
- vpslld $31, %xmm2, %xmm7
- vpslld $30, %xmm2, %xmm4
- vpslld $25, %xmm2, %xmm5
- vaesenc 144(%r15), %xmm10, %xmm10
- vpxor %xmm4, %xmm7, %xmm7
- vpxor %xmm5, %xmm7, %xmm7
- vaesenc 144(%r15), %xmm11, %xmm11
- vpsrldq $4, %xmm7, %xmm4
- vpslldq $12, %xmm7, %xmm7
- vaesenc 144(%r15), %xmm12, %xmm12
- vpxor %xmm7, %xmm2, %xmm2
- vpsrld $0x01, %xmm2, %xmm5
- vaesenc 144(%r15), %xmm13, %xmm13
- vpsrld $2, %xmm2, %xmm1
- vpsrld $7, %xmm2, %xmm0
- vaesenc 144(%r15), %xmm14, %xmm14
- vpxor %xmm1, %xmm5, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vaesenc 144(%r15), %xmm15, %xmm15
- vpxor %xmm4, %xmm5, %xmm5
- vpxor %xmm5, %xmm2, %xmm2
- vpxor %xmm3, %xmm2, %xmm2
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm7
- jl L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 176(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm7
- jl L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 208(%r15), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 224(%r15), %xmm7
- L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done:
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vmovdqu (%rcx), %xmm0
- vmovdqu 16(%rcx), %xmm1
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vmovdqu %xmm8, (%rdx)
- vmovdqu %xmm9, 16(%rdx)
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu 32(%rcx), %xmm0
- vmovdqu 48(%rcx), %xmm1
- vpxor %xmm0, %xmm10, %xmm10
- vpxor %xmm1, %xmm11, %xmm11
- vmovdqu %xmm10, 32(%rdx)
- vmovdqu %xmm11, 48(%rdx)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vmovdqu 64(%rcx), %xmm0
- vmovdqu 80(%rcx), %xmm1
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vmovdqu %xmm12, 64(%rdx)
- vmovdqu %xmm13, 80(%rdx)
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 96(%rcx), %xmm0
- vmovdqu 112(%rcx), %xmm1
- vpxor %xmm0, %xmm14, %xmm14
- vpxor %xmm1, %xmm15, %xmm15
- vmovdqu %xmm14, 96(%rdx)
- vmovdqu %xmm15, 112(%rdx)
- addl $0x80, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_decrypt_avx1_ghash_128
- vmovdqa %xmm2, %xmm6
- vmovdqu (%rsp), %xmm5
- L_AES_GCM_decrypt_avx1_done_128:
- movl %r9d, %edx
- cmpl %edx, %ebx
- jge L_AES_GCM_decrypt_avx1_done_dec
- movl %r9d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %ebx
- jge L_AES_GCM_decrypt_avx1_last_block_done
- L_AES_GCM_decrypt_avx1_last_block_start:
- vmovdqu (%rdi,%rbx,1), %xmm13
- vmovdqa %xmm5, %xmm0
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm13, %xmm1
- vpxor %xmm6, %xmm1, %xmm1
- vmovdqu 128(%rsp), %xmm9
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
- vmovdqu %xmm9, 128(%rsp)
- vpxor (%r15), %xmm8, %xmm8
- vpclmulqdq $16, %xmm0, %xmm1, %xmm10
- vaesenc 16(%r15), %xmm8, %xmm8
- vaesenc 32(%r15), %xmm8, %xmm8
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm11
- vaesenc 48(%r15), %xmm8, %xmm8
- vaesenc 64(%r15), %xmm8, %xmm8
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm12
- vaesenc 80(%r15), %xmm8, %xmm8
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vaesenc 96(%r15), %xmm8, %xmm8
- vpxor %xmm11, %xmm10, %xmm10
- vpslldq $8, %xmm10, %xmm2
- vpsrldq $8, %xmm10, %xmm10
- vaesenc 112(%r15), %xmm8, %xmm8
- vpxor %xmm12, %xmm2, %xmm2
- vpxor %xmm10, %xmm1, %xmm3
- vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
- vpclmulqdq $16, %xmm0, %xmm2, %xmm11
- vaesenc 128(%r15), %xmm8, %xmm8
- vpshufd $0x4e, %xmm2, %xmm10
- vpxor %xmm11, %xmm10, %xmm10
- vpclmulqdq $16, %xmm0, %xmm10, %xmm11
- vaesenc 144(%r15), %xmm8, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpxor %xmm11, %xmm10, %xmm10
- vpxor %xmm3, %xmm10, %xmm6
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_decrypt_avx1_aesenc_gfmul_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 176(%r15), %xmm8, %xmm8
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_decrypt_avx1_aesenc_gfmul_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 208(%r15), %xmm8, %xmm8
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_decrypt_avx1_aesenc_gfmul_last:
- vaesenclast %xmm9, %xmm8, %xmm8
- vmovdqa %xmm13, %xmm0
- vpxor %xmm0, %xmm8, %xmm8
- vmovdqu %xmm8, (%rsi,%rbx,1)
- addl $16, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_decrypt_avx1_last_block_start
- L_AES_GCM_decrypt_avx1_last_block_done:
- movl %r9d, %ecx
- movl %ecx, %edx
- andl $15, %ecx
- jz L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_done
- vmovdqu 128(%rsp), %xmm4
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpxor (%r15), %xmm4, %xmm4
- vaesenc 16(%r15), %xmm4, %xmm4
- vaesenc 32(%r15), %xmm4, %xmm4
- vaesenc 48(%r15), %xmm4, %xmm4
- vaesenc 64(%r15), %xmm4, %xmm4
- vaesenc 80(%r15), %xmm4, %xmm4
- vaesenc 96(%r15), %xmm4, %xmm4
- vaesenc 112(%r15), %xmm4, %xmm4
- vaesenc 128(%r15), %xmm4, %xmm4
- vaesenc 144(%r15), %xmm4, %xmm4
- cmpl $11, %r10d
- vmovdqa 160(%r15), %xmm9
- jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last
- vaesenc %xmm9, %xmm4, %xmm4
- vaesenc 176(%r15), %xmm4, %xmm4
- cmpl $13, %r10d
- vmovdqa 192(%r15), %xmm9
- jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last
- vaesenc %xmm9, %xmm4, %xmm4
- vaesenc 208(%r15), %xmm4, %xmm4
- vmovdqa 224(%r15), %xmm9
- L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last:
- vaesenclast %xmm9, %xmm4, %xmm4
- subq $32, %rsp
- xorl %ecx, %ecx
- vmovdqu %xmm4, (%rsp)
- vpxor %xmm0, %xmm0, %xmm0
- vmovdqu %xmm0, 16(%rsp)
- L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_loop:
- movzbl (%rdi,%rbx,1), %r13d
- movb %r13b, 16(%rsp,%rcx,1)
- xorb (%rsp,%rcx,1), %r13b
- movb %r13b, (%rsi,%rbx,1)
- incl %ebx
- incl %ecx
- cmpl %edx, %ebx
- jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_loop
- vmovdqu 16(%rsp), %xmm4
- addq $32, %rsp
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- vpxor %xmm4, %xmm6, %xmm6
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm6, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm6, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm6
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm6, %xmm6
- L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_done:
- L_AES_GCM_decrypt_avx1_done_dec:
- movl %r9d, %edx
- movl %r11d, %ecx
- shlq $3, %rdx
- shlq $3, %rcx
- vmovq %rdx, %xmm0
- vmovq %rcx, %xmm1
- vpunpcklqdq %xmm1, %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm6, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm6, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm6
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm6, %xmm6
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
- vmovdqu 144(%rsp), %xmm0
- vpxor %xmm6, %xmm0, %xmm0
- cmpl $16, %r14d
- je L_AES_GCM_decrypt_avx1_cmp_tag_16
- subq $16, %rsp
- xorq %rcx, %rcx
- xorq %rbx, %rbx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_decrypt_avx1_cmp_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- xorb (%r8,%rcx,1), %r13b
- orb %r13b, %bl
- incl %ecx
- cmpl %r14d, %ecx
- jne L_AES_GCM_decrypt_avx1_cmp_tag_loop
- cmpb $0x00, %bl
- sete %bl
- addq $16, %rsp
- xorq %rcx, %rcx
- jmp L_AES_GCM_decrypt_avx1_cmp_tag_done
- L_AES_GCM_decrypt_avx1_cmp_tag_16:
- vmovdqu (%r8), %xmm1
- vpcmpeqb %xmm1, %xmm0, %xmm0
- vpmovmskb %xmm0, %rdx
- # %%edx == 0xFFFF then return 1 else => return 0
- xorl %ebx, %ebx
- cmpl $0xffff, %edx
- sete %bl
- L_AES_GCM_decrypt_avx1_cmp_tag_done:
- movl %ebx, (%rbp)
- vzeroupper
- addq $0xa8, %rsp
- popq %rbp
- popq %r15
- popq %r14
- popq %rbx
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_avx1,.-AES_GCM_decrypt_avx1
- #endif /* __APPLE__ */
- #ifdef WOLFSSL_AESGCM_STREAM
- #ifndef __APPLE__
- .text
- .globl AES_GCM_init_avx1
- .type AES_GCM_init_avx1,@function
- .align 16
- AES_GCM_init_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_init_avx1
- .p2align 4
- _AES_GCM_init_avx1:
- #endif /* __APPLE__ */
- pushq %r12
- pushq %r13
- movq %rdx, %r10
- movl %ecx, %r11d
- movq 24(%rsp), %rax
- subq $16, %rsp
- vpxor %xmm4, %xmm4, %xmm4
- movl %r11d, %edx
- cmpl $12, %edx
- jne L_AES_GCM_init_avx1_iv_not_12
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- movl $0x1000000, %ecx
- vmovq (%r10), %xmm4
- vpinsrd $2, 8(%r10), %xmm4, %xmm4
- vpinsrd $3, %ecx, %xmm4, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- vmovdqa (%rdi), %xmm5
- vpxor %xmm5, %xmm4, %xmm1
- vmovdqa 16(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 32(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 48(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 64(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 80(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 96(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 112(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 128(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 144(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm6
- jl L_AES_GCM_init_avx1_calc_iv_12_last
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 176(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm6
- jl L_AES_GCM_init_avx1_calc_iv_12_last
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 208(%rdi), %xmm6
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm1, %xmm1
- vmovdqa 224(%rdi), %xmm6
- L_AES_GCM_init_avx1_calc_iv_12_last:
- vaesenclast %xmm6, %xmm5, %xmm5
- vaesenclast %xmm6, %xmm1, %xmm1
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- vmovdqu %xmm1, %xmm15
- jmp L_AES_GCM_init_avx1_iv_done
- L_AES_GCM_init_avx1_iv_not_12:
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- vmovdqa (%rdi), %xmm5
- vaesenc 16(%rdi), %xmm5, %xmm5
- vaesenc 32(%rdi), %xmm5, %xmm5
- vaesenc 48(%rdi), %xmm5, %xmm5
- vaesenc 64(%rdi), %xmm5, %xmm5
- vaesenc 80(%rdi), %xmm5, %xmm5
- vaesenc 96(%rdi), %xmm5, %xmm5
- vaesenc 112(%rdi), %xmm5, %xmm5
- vaesenc 128(%rdi), %xmm5, %xmm5
- vaesenc 144(%rdi), %xmm5, %xmm5
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm8
- jl L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last
- vaesenc %xmm8, %xmm5, %xmm5
- vaesenc 176(%rdi), %xmm5, %xmm5
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm8
- jl L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last
- vaesenc %xmm8, %xmm5, %xmm5
- vaesenc 208(%rdi), %xmm5, %xmm5
- vmovdqa 224(%rdi), %xmm8
- L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last:
- vaesenclast %xmm8, %xmm5, %xmm5
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_init_avx1_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_init_avx1_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_init_avx1_calc_iv_16_loop:
- vmovdqu (%r10,%rcx,1), %xmm7
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm7, %xmm7
- vpxor %xmm7, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm6
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm6, %xmm6
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm6, %xmm0
- vpslld $30, %xmm6, %xmm1
- vpslld $25, %xmm6, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- vpsrld $0x01, %xmm6, %xmm2
- vpsrld $2, %xmm6, %xmm3
- vpsrld $7, %xmm6, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm6, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_init_avx1_calc_iv_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_init_avx1_calc_iv_done
- L_AES_GCM_init_avx1_calc_iv_lt16:
- subq $16, %rsp
- vpxor %xmm7, %xmm7, %xmm7
- xorl %r13d, %r13d
- vmovdqu %xmm7, (%rsp)
- L_AES_GCM_init_avx1_calc_iv_loop:
- movzbl (%r10,%rcx,1), %r12d
- movb %r12b, (%rsp,%r13,1)
- incl %ecx
- incl %r13d
- cmpl %edx, %ecx
- jl L_AES_GCM_init_avx1_calc_iv_loop
- vmovdqu (%rsp), %xmm7
- addq $16, %rsp
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm7, %xmm7
- vpxor %xmm7, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm6
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm6, %xmm6
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm6, %xmm0
- vpslld $30, %xmm6, %xmm1
- vpslld $25, %xmm6, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- vpsrld $0x01, %xmm6, %xmm2
- vpsrld $2, %xmm6, %xmm3
- vpsrld $7, %xmm6, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm6, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- L_AES_GCM_init_avx1_calc_iv_done:
- # T = Encrypt counter
- vpxor %xmm0, %xmm0, %xmm0
- shll $3, %edx
- vmovq %rdx, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm6
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm6, %xmm6
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm6, %xmm0
- vpslld $30, %xmm6, %xmm1
- vpslld $25, %xmm6, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- vpsrld $0x01, %xmm6, %xmm2
- vpsrld $2, %xmm6, %xmm3
- vpsrld $7, %xmm6, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm6, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- # Encrypt counter
- vmovdqa (%rdi), %xmm7
- vpxor %xmm4, %xmm7, %xmm7
- vaesenc 16(%rdi), %xmm7, %xmm7
- vaesenc 32(%rdi), %xmm7, %xmm7
- vaesenc 48(%rdi), %xmm7, %xmm7
- vaesenc 64(%rdi), %xmm7, %xmm7
- vaesenc 80(%rdi), %xmm7, %xmm7
- vaesenc 96(%rdi), %xmm7, %xmm7
- vaesenc 112(%rdi), %xmm7, %xmm7
- vaesenc 128(%rdi), %xmm7, %xmm7
- vaesenc 144(%rdi), %xmm7, %xmm7
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm8
- jl L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last
- vaesenc %xmm8, %xmm7, %xmm7
- vaesenc 176(%rdi), %xmm7, %xmm7
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm8
- jl L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last
- vaesenc %xmm8, %xmm7, %xmm7
- vaesenc 208(%rdi), %xmm7, %xmm7
- vmovdqa 224(%rdi), %xmm8
- L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last:
- vaesenclast %xmm8, %xmm7, %xmm7
- vmovdqu %xmm7, %xmm15
- L_AES_GCM_init_avx1_iv_done:
- vmovdqa %xmm15, (%rax)
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
- vmovdqa %xmm5, (%r8)
- vmovdqa %xmm4, (%r9)
- vzeroupper
- addq $16, %rsp
- popq %r13
- popq %r12
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_init_avx1,.-AES_GCM_init_avx1
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_aad_update_avx1
- .type AES_GCM_aad_update_avx1,@function
- .align 16
- AES_GCM_aad_update_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_aad_update_avx1
- .p2align 4
- _AES_GCM_aad_update_avx1:
- #endif /* __APPLE__ */
- movq %rcx, %rax
- vmovdqa (%rdx), %xmm5
- vmovdqa (%rax), %xmm6
- xorl %ecx, %ecx
- L_AES_GCM_aad_update_avx1_16_loop:
- vmovdqu (%rdi,%rcx,1), %xmm7
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm7, %xmm7
- vpxor %xmm7, %xmm5, %xmm5
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm5, %xmm1
- vpshufd $0x4e, %xmm6, %xmm2
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
- vpxor %xmm5, %xmm1, %xmm1
- vpxor %xmm6, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm4
- vmovdqa %xmm3, %xmm5
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm5, %xmm5
- vpsrld $31, %xmm4, %xmm0
- vpsrld $31, %xmm5, %xmm1
- vpslld $0x01, %xmm4, %xmm4
- vpslld $0x01, %xmm5, %xmm5
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm5, %xmm5
- vpor %xmm0, %xmm4, %xmm4
- vpor %xmm1, %xmm5, %xmm5
- vpslld $31, %xmm4, %xmm0
- vpslld $30, %xmm4, %xmm1
- vpslld $25, %xmm4, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- vpsrld $0x01, %xmm4, %xmm2
- vpsrld $2, %xmm4, %xmm3
- vpsrld $7, %xmm4, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm4, %xmm2, %xmm2
- vpxor %xmm2, %xmm5, %xmm5
- addl $16, %ecx
- cmpl %esi, %ecx
- jl L_AES_GCM_aad_update_avx1_16_loop
- vmovdqa %xmm5, (%rdx)
- vzeroupper
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_aad_update_avx1,.-AES_GCM_aad_update_avx1
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_block_avx1
- .type AES_GCM_encrypt_block_avx1,@function
- .align 16
- AES_GCM_encrypt_block_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_block_avx1
- .p2align 4
- _AES_GCM_encrypt_block_avx1:
- #endif /* __APPLE__ */
- movq %rdx, %r10
- movq %rcx, %r11
- vmovdqu (%r8), %xmm1
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm1, %xmm1
- vmovdqu %xmm1, (%r8)
- vpxor (%rdi), %xmm0, %xmm0
- vaesenc 16(%rdi), %xmm0, %xmm0
- vaesenc 32(%rdi), %xmm0, %xmm0
- vaesenc 48(%rdi), %xmm0, %xmm0
- vaesenc 64(%rdi), %xmm0, %xmm0
- vaesenc 80(%rdi), %xmm0, %xmm0
- vaesenc 96(%rdi), %xmm0, %xmm0
- vaesenc 112(%rdi), %xmm0, %xmm0
- vaesenc 128(%rdi), %xmm0, %xmm0
- vaesenc 144(%rdi), %xmm0, %xmm0
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm1
- jl L_AES_GCM_encrypt_block_avx1_aesenc_block_last
- vaesenc %xmm1, %xmm0, %xmm0
- vaesenc 176(%rdi), %xmm0, %xmm0
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm1
- jl L_AES_GCM_encrypt_block_avx1_aesenc_block_last
- vaesenc %xmm1, %xmm0, %xmm0
- vaesenc 208(%rdi), %xmm0, %xmm0
- vmovdqa 224(%rdi), %xmm1
- L_AES_GCM_encrypt_block_avx1_aesenc_block_last:
- vaesenclast %xmm1, %xmm0, %xmm0
- vmovdqu (%r11), %xmm1
- vpxor %xmm1, %xmm0, %xmm0
- vmovdqu %xmm0, (%r10)
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vzeroupper
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_block_avx1,.-AES_GCM_encrypt_block_avx1
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_ghash_block_avx1
- .type AES_GCM_ghash_block_avx1,@function
- .align 16
- AES_GCM_ghash_block_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_ghash_block_avx1
- .p2align 4
- _AES_GCM_ghash_block_avx1:
- #endif /* __APPLE__ */
- vmovdqa (%rsi), %xmm4
- vmovdqa (%rdx), %xmm5
- vmovdqu (%rdi), %xmm7
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm7, %xmm7
- vpxor %xmm7, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm4, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpxor %xmm4, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm6
- vmovdqa %xmm3, %xmm4
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm6, %xmm6
- vpxor %xmm1, %xmm4, %xmm4
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- vpslld $31, %xmm6, %xmm0
- vpslld $30, %xmm6, %xmm1
- vpslld $25, %xmm6, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- vpsrld $0x01, %xmm6, %xmm2
- vpsrld $2, %xmm6, %xmm3
- vpsrld $7, %xmm6, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm6, %xmm2, %xmm2
- vpxor %xmm2, %xmm4, %xmm4
- vmovdqa %xmm4, (%rsi)
- vzeroupper
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_ghash_block_avx1,.-AES_GCM_ghash_block_avx1
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_update_avx1
- .type AES_GCM_encrypt_update_avx1,@function
- .align 16
- AES_GCM_encrypt_update_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_update_avx1
- .p2align 4
- _AES_GCM_encrypt_update_avx1:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %r14
- movq %rdx, %r10
- movq %rcx, %r11
- movq 32(%rsp), %rax
- movq 40(%rsp), %r12
- subq $0xa0, %rsp
- vmovdqa (%r9), %xmm6
- vmovdqa (%rax), %xmm5
- vpsrlq $63, %xmm5, %xmm9
- vpsllq $0x01, %xmm5, %xmm8
- vpslldq $8, %xmm9, %xmm9
- vpor %xmm9, %xmm8, %xmm8
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpxor %xmm8, %xmm5, %xmm5
- xorl %r14d, %r14d
- cmpl $0x80, %r8d
- movl %r8d, %r13d
- jl L_AES_GCM_encrypt_update_avx1_done_128
- andl $0xffffff80, %r13d
- vmovdqa %xmm6, %xmm2
- # H ^ 1
- vmovdqu %xmm5, (%rsp)
- # H ^ 2
- vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
- vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm0, %xmm0
- vmovdqu %xmm0, 16(%rsp)
- # H ^ 3
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm0, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm0, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm1
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm1, %xmm1
- vmovdqu %xmm1, 32(%rsp)
- # H ^ 4
- vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
- vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm3, %xmm3
- vmovdqu %xmm3, 48(%rsp)
- # H ^ 5
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm0, %xmm9
- vpshufd $0x4e, %xmm1, %xmm10
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
- vpxor %xmm0, %xmm9, %xmm9
- vpxor %xmm1, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 64(%rsp)
- # H ^ 6
- vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
- vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 80(%rsp)
- # H ^ 7
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm1, %xmm9
- vpshufd $0x4e, %xmm3, %xmm10
- vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
- vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm3, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 96(%rsp)
- # H ^ 8
- vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
- vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 112(%rsp)
- # First 128 bytes of input
- vmovdqu (%r12), %xmm0
- vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm15, %xmm15
- vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
- vmovdqa (%rdi), %xmm7
- vmovdqu %xmm0, (%r12)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- vmovdqa 16(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 32(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 48(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 64(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 80(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 96(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 112(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 128(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 144(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 176(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 208(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 224(%rdi), %xmm7
- L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done:
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vmovdqu (%r11), %xmm0
- vmovdqu 16(%r11), %xmm1
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vmovdqu %xmm8, (%r10)
- vmovdqu %xmm9, 16(%r10)
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu 32(%r11), %xmm0
- vmovdqu 48(%r11), %xmm1
- vpxor %xmm0, %xmm10, %xmm10
- vpxor %xmm1, %xmm11, %xmm11
- vmovdqu %xmm10, 32(%r10)
- vmovdqu %xmm11, 48(%r10)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vmovdqu 64(%r11), %xmm0
- vmovdqu 80(%r11), %xmm1
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vmovdqu %xmm12, 64(%r10)
- vmovdqu %xmm13, 80(%r10)
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 96(%r11), %xmm0
- vmovdqu 112(%r11), %xmm1
- vpxor %xmm0, %xmm14, %xmm14
- vpxor %xmm1, %xmm15, %xmm15
- vmovdqu %xmm14, 96(%r10)
- vmovdqu %xmm15, 112(%r10)
- cmpl $0x80, %r13d
- movl $0x80, %r14d
- jle L_AES_GCM_encrypt_update_avx1_end_128
- # More 128 bytes of input
- L_AES_GCM_encrypt_update_avx1_ghash_128:
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- vmovdqu (%r12), %xmm0
- vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm15, %xmm15
- vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
- vmovdqa (%rdi), %xmm7
- vmovdqu %xmm0, (%r12)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- vmovdqu 112(%rsp), %xmm7
- vmovdqu -128(%rdx), %xmm0
- vaesenc 16(%rdi), %xmm8, %xmm8
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
- vaesenc 16(%rdi), %xmm9, %xmm9
- vaesenc 16(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
- vaesenc 16(%rdi), %xmm11, %xmm11
- vaesenc 16(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
- vaesenc 16(%rdi), %xmm13, %xmm13
- vaesenc 16(%rdi), %xmm14, %xmm14
- vaesenc 16(%rdi), %xmm15, %xmm15
- vpxor %xmm2, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqu 96(%rsp), %xmm7
- vmovdqu -112(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 32(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 32(%rdi), %xmm9, %xmm9
- vaesenc 32(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 32(%rdi), %xmm11, %xmm11
- vaesenc 32(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 32(%rdi), %xmm13, %xmm13
- vaesenc 32(%rdi), %xmm14, %xmm14
- vaesenc 32(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 80(%rsp), %xmm7
- vmovdqu -96(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 48(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 48(%rdi), %xmm9, %xmm9
- vaesenc 48(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 48(%rdi), %xmm11, %xmm11
- vaesenc 48(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 48(%rdi), %xmm13, %xmm13
- vaesenc 48(%rdi), %xmm14, %xmm14
- vaesenc 48(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 64(%rsp), %xmm7
- vmovdqu -80(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 64(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 64(%rdi), %xmm9, %xmm9
- vaesenc 64(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 64(%rdi), %xmm11, %xmm11
- vaesenc 64(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 64(%rdi), %xmm13, %xmm13
- vaesenc 64(%rdi), %xmm14, %xmm14
- vaesenc 64(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 48(%rsp), %xmm7
- vmovdqu -64(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 80(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 80(%rdi), %xmm9, %xmm9
- vaesenc 80(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 80(%rdi), %xmm11, %xmm11
- vaesenc 80(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 80(%rdi), %xmm13, %xmm13
- vaesenc 80(%rdi), %xmm14, %xmm14
- vaesenc 80(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 32(%rsp), %xmm7
- vmovdqu -48(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 96(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 96(%rdi), %xmm9, %xmm9
- vaesenc 96(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 96(%rdi), %xmm11, %xmm11
- vaesenc 96(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 96(%rdi), %xmm13, %xmm13
- vaesenc 96(%rdi), %xmm14, %xmm14
- vaesenc 96(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 16(%rsp), %xmm7
- vmovdqu -32(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 112(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 112(%rdi), %xmm9, %xmm9
- vaesenc 112(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 112(%rdi), %xmm11, %xmm11
- vaesenc 112(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 112(%rdi), %xmm13, %xmm13
- vaesenc 112(%rdi), %xmm14, %xmm14
- vaesenc 112(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu (%rsp), %xmm7
- vmovdqu -16(%rdx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 128(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 128(%rdi), %xmm9, %xmm9
- vaesenc 128(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 128(%rdi), %xmm11, %xmm11
- vaesenc 128(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 128(%rdi), %xmm13, %xmm13
- vaesenc 128(%rdi), %xmm14, %xmm14
- vaesenc 128(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vpslldq $8, %xmm1, %xmm5
- vpsrldq $8, %xmm1, %xmm1
- vaesenc 144(%rdi), %xmm8, %xmm8
- vpxor %xmm5, %xmm2, %xmm2
- vpxor %xmm1, %xmm3, %xmm3
- vaesenc 144(%rdi), %xmm9, %xmm9
- vpslld $31, %xmm2, %xmm7
- vpslld $30, %xmm2, %xmm4
- vpslld $25, %xmm2, %xmm5
- vaesenc 144(%rdi), %xmm10, %xmm10
- vpxor %xmm4, %xmm7, %xmm7
- vpxor %xmm5, %xmm7, %xmm7
- vaesenc 144(%rdi), %xmm11, %xmm11
- vpsrldq $4, %xmm7, %xmm4
- vpslldq $12, %xmm7, %xmm7
- vaesenc 144(%rdi), %xmm12, %xmm12
- vpxor %xmm7, %xmm2, %xmm2
- vpsrld $0x01, %xmm2, %xmm5
- vaesenc 144(%rdi), %xmm13, %xmm13
- vpsrld $2, %xmm2, %xmm1
- vpsrld $7, %xmm2, %xmm0
- vaesenc 144(%rdi), %xmm14, %xmm14
- vpxor %xmm1, %xmm5, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vaesenc 144(%rdi), %xmm15, %xmm15
- vpxor %xmm4, %xmm5, %xmm5
- vpxor %xmm5, %xmm2, %xmm2
- vpxor %xmm3, %xmm2, %xmm2
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 176(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 208(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 224(%rdi), %xmm7
- L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done:
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vmovdqu (%rcx), %xmm0
- vmovdqu 16(%rcx), %xmm1
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vmovdqu %xmm8, (%rdx)
- vmovdqu %xmm9, 16(%rdx)
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu 32(%rcx), %xmm0
- vmovdqu 48(%rcx), %xmm1
- vpxor %xmm0, %xmm10, %xmm10
- vpxor %xmm1, %xmm11, %xmm11
- vmovdqu %xmm10, 32(%rdx)
- vmovdqu %xmm11, 48(%rdx)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vmovdqu 64(%rcx), %xmm0
- vmovdqu 80(%rcx), %xmm1
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vmovdqu %xmm12, 64(%rdx)
- vmovdqu %xmm13, 80(%rdx)
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 96(%rcx), %xmm0
- vmovdqu 112(%rcx), %xmm1
- vpxor %xmm0, %xmm14, %xmm14
- vpxor %xmm1, %xmm15, %xmm15
- vmovdqu %xmm14, 96(%rdx)
- vmovdqu %xmm15, 112(%rdx)
- addl $0x80, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_encrypt_update_avx1_ghash_128
- L_AES_GCM_encrypt_update_avx1_end_128:
- vmovdqa L_avx1_aes_gcm_bswap_mask(%rip), %xmm4
- vpshufb %xmm4, %xmm8, %xmm8
- vpshufb %xmm4, %xmm9, %xmm9
- vpshufb %xmm4, %xmm10, %xmm10
- vpshufb %xmm4, %xmm11, %xmm11
- vpxor %xmm2, %xmm8, %xmm8
- vpshufb %xmm4, %xmm12, %xmm12
- vpshufb %xmm4, %xmm13, %xmm13
- vpshufb %xmm4, %xmm14, %xmm14
- vpshufb %xmm4, %xmm15, %xmm15
- vmovdqu (%rsp), %xmm7
- vmovdqu 16(%rsp), %xmm5
- # ghash_gfmul_avx
- vpshufd $0x4e, %xmm15, %xmm1
- vpshufd $0x4e, %xmm7, %xmm2
- vpclmulqdq $0x11, %xmm15, %xmm7, %xmm3
- vpclmulqdq $0x00, %xmm15, %xmm7, %xmm0
- vpxor %xmm15, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqa %xmm0, %xmm4
- vmovdqa %xmm3, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm14, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm14, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm14, %xmm5, %xmm0
- vpxor %xmm14, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- vmovdqu 32(%rsp), %xmm7
- vmovdqu 48(%rsp), %xmm5
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm13, %xmm1
- vpshufd $0x4e, %xmm7, %xmm2
- vpclmulqdq $0x11, %xmm13, %xmm7, %xmm3
- vpclmulqdq $0x00, %xmm13, %xmm7, %xmm0
- vpxor %xmm13, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm12, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm12, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm12, %xmm5, %xmm0
- vpxor %xmm12, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- vmovdqu 64(%rsp), %xmm7
- vmovdqu 80(%rsp), %xmm5
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm11, %xmm1
- vpshufd $0x4e, %xmm7, %xmm2
- vpclmulqdq $0x11, %xmm11, %xmm7, %xmm3
- vpclmulqdq $0x00, %xmm11, %xmm7, %xmm0
- vpxor %xmm11, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm10, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm10, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm10, %xmm5, %xmm0
- vpxor %xmm10, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- vmovdqu 96(%rsp), %xmm7
- vmovdqu 112(%rsp), %xmm5
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm9, %xmm1
- vpshufd $0x4e, %xmm7, %xmm2
- vpclmulqdq $0x11, %xmm9, %xmm7, %xmm3
- vpclmulqdq $0x00, %xmm9, %xmm7, %xmm0
- vpxor %xmm9, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- # ghash_gfmul_xor_avx
- vpshufd $0x4e, %xmm8, %xmm1
- vpshufd $0x4e, %xmm5, %xmm2
- vpclmulqdq $0x11, %xmm8, %xmm5, %xmm3
- vpclmulqdq $0x00, %xmm8, %xmm5, %xmm0
- vpxor %xmm8, %xmm1, %xmm1
- vpxor %xmm5, %xmm2, %xmm2
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vpxor %xmm0, %xmm4, %xmm4
- vpxor %xmm3, %xmm6, %xmm6
- vpslldq $8, %xmm1, %xmm2
- vpsrldq $8, %xmm1, %xmm1
- vpxor %xmm2, %xmm4, %xmm4
- vpxor %xmm1, %xmm6, %xmm6
- vpslld $31, %xmm4, %xmm0
- vpslld $30, %xmm4, %xmm1
- vpslld $25, %xmm4, %xmm2
- vpxor %xmm1, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vmovdqa %xmm0, %xmm1
- vpsrldq $4, %xmm1, %xmm1
- vpslldq $12, %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- vpsrld $0x01, %xmm4, %xmm2
- vpsrld $2, %xmm4, %xmm3
- vpsrld $7, %xmm4, %xmm0
- vpxor %xmm3, %xmm2, %xmm2
- vpxor %xmm0, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm4, %xmm2, %xmm2
- vpxor %xmm2, %xmm6, %xmm6
- vmovdqu (%rsp), %xmm5
- L_AES_GCM_encrypt_update_avx1_done_128:
- movl %r8d, %edx
- cmpl %edx, %r14d
- jge L_AES_GCM_encrypt_update_avx1_done_enc
- movl %r8d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %r14d
- jge L_AES_GCM_encrypt_update_avx1_last_block_done
- vmovdqu (%r12), %xmm9
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
- vmovdqu %xmm9, (%r12)
- vpxor (%rdi), %xmm8, %xmm8
- vaesenc 16(%rdi), %xmm8, %xmm8
- vaesenc 32(%rdi), %xmm8, %xmm8
- vaesenc 48(%rdi), %xmm8, %xmm8
- vaesenc 64(%rdi), %xmm8, %xmm8
- vaesenc 80(%rdi), %xmm8, %xmm8
- vaesenc 96(%rdi), %xmm8, %xmm8
- vaesenc 112(%rdi), %xmm8, %xmm8
- vaesenc 128(%rdi), %xmm8, %xmm8
- vaesenc 144(%rdi), %xmm8, %xmm8
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm9
- jl L_AES_GCM_encrypt_update_avx1_aesenc_block_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 176(%rdi), %xmm8, %xmm8
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm9
- jl L_AES_GCM_encrypt_update_avx1_aesenc_block_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 208(%rdi), %xmm8, %xmm8
- vmovdqa 224(%rdi), %xmm9
- L_AES_GCM_encrypt_update_avx1_aesenc_block_last:
- vaesenclast %xmm9, %xmm8, %xmm8
- vmovdqu (%r11,%r14,1), %xmm9
- vpxor %xmm9, %xmm8, %xmm8
- vmovdqu %xmm8, (%r10,%r14,1)
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- vpxor %xmm8, %xmm6, %xmm6
- addl $16, %r14d
- cmpl %r13d, %r14d
- jge L_AES_GCM_encrypt_update_avx1_last_block_ghash
- L_AES_GCM_encrypt_update_avx1_last_block_start:
- vmovdqu (%r11,%r14,1), %xmm13
- vmovdqu (%r12), %xmm9
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
- vmovdqu %xmm9, (%r12)
- vpxor (%rdi), %xmm8, %xmm8
- vpclmulqdq $16, %xmm5, %xmm6, %xmm10
- vaesenc 16(%rdi), %xmm8, %xmm8
- vaesenc 32(%rdi), %xmm8, %xmm8
- vpclmulqdq $0x01, %xmm5, %xmm6, %xmm11
- vaesenc 48(%rdi), %xmm8, %xmm8
- vaesenc 64(%rdi), %xmm8, %xmm8
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm12
- vaesenc 80(%rdi), %xmm8, %xmm8
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm1
- vaesenc 96(%rdi), %xmm8, %xmm8
- vpxor %xmm11, %xmm10, %xmm10
- vpslldq $8, %xmm10, %xmm2
- vpsrldq $8, %xmm10, %xmm10
- vaesenc 112(%rdi), %xmm8, %xmm8
- vpxor %xmm12, %xmm2, %xmm2
- vpxor %xmm10, %xmm1, %xmm3
- vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
- vpclmulqdq $16, %xmm0, %xmm2, %xmm11
- vaesenc 128(%rdi), %xmm8, %xmm8
- vpshufd $0x4e, %xmm2, %xmm10
- vpxor %xmm11, %xmm10, %xmm10
- vpclmulqdq $16, %xmm0, %xmm10, %xmm11
- vaesenc 144(%rdi), %xmm8, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpxor %xmm11, %xmm10, %xmm10
- vpxor %xmm3, %xmm10, %xmm6
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm9
- jl L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 176(%rdi), %xmm8, %xmm8
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm9
- jl L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 208(%rdi), %xmm8, %xmm8
- vmovdqa 224(%rdi), %xmm9
- L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last:
- vaesenclast %xmm9, %xmm8, %xmm8
- vmovdqa %xmm13, %xmm0
- vpxor %xmm0, %xmm8, %xmm8
- vmovdqu %xmm8, (%r10,%r14,1)
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
- addl $16, %r14d
- vpxor %xmm8, %xmm6, %xmm6
- cmpl %r13d, %r14d
- jl L_AES_GCM_encrypt_update_avx1_last_block_start
- L_AES_GCM_encrypt_update_avx1_last_block_ghash:
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm6, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm6, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm6
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm6, %xmm6
- L_AES_GCM_encrypt_update_avx1_last_block_done:
- L_AES_GCM_encrypt_update_avx1_done_enc:
- vmovdqa %xmm6, (%r9)
- vzeroupper
- addq $0xa0, %rsp
- popq %r14
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_update_avx1,.-AES_GCM_encrypt_update_avx1
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_final_avx1
- .type AES_GCM_encrypt_final_avx1,@function
- .align 16
- AES_GCM_encrypt_final_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_final_avx1
- .p2align 4
- _AES_GCM_encrypt_final_avx1:
- #endif /* __APPLE__ */
- pushq %r13
- movl %edx, %eax
- movl %ecx, %r10d
- movl %r8d, %r11d
- movq 16(%rsp), %r8
- subq $16, %rsp
- vmovdqa (%rdi), %xmm4
- vmovdqa (%r9), %xmm5
- vmovdqa (%r8), %xmm6
- vpsrlq $63, %xmm5, %xmm8
- vpsllq $0x01, %xmm5, %xmm7
- vpslldq $8, %xmm8, %xmm8
- vpor %xmm8, %xmm7, %xmm7
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpxor %xmm7, %xmm5, %xmm5
- movl %r10d, %edx
- movl %r11d, %ecx
- shlq $3, %rdx
- shlq $3, %rcx
- vmovq %rdx, %xmm0
- vmovq %rcx, %xmm1
- vpunpcklqdq %xmm1, %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm8
- vpshufd $0x4e, %xmm4, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm4, %xmm10
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm7
- vpxor %xmm5, %xmm8, %xmm8
- vpxor %xmm4, %xmm9, %xmm9
- vpclmulqdq $0x00, %xmm9, %xmm8, %xmm8
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm10, %xmm8, %xmm8
- vpslldq $8, %xmm8, %xmm9
- vpsrldq $8, %xmm8, %xmm8
- vpxor %xmm9, %xmm7, %xmm7
- vpxor %xmm8, %xmm10, %xmm4
- vpslld $31, %xmm7, %xmm11
- vpslld $30, %xmm7, %xmm12
- vpslld $25, %xmm7, %xmm13
- vpxor %xmm12, %xmm11, %xmm11
- vpxor %xmm13, %xmm11, %xmm11
- vpsrldq $4, %xmm11, %xmm12
- vpslldq $12, %xmm11, %xmm11
- vpxor %xmm11, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm13
- vpsrld $2, %xmm7, %xmm9
- vpsrld $7, %xmm7, %xmm8
- vpxor %xmm9, %xmm13, %xmm13
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm13, %xmm13
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm13, %xmm4, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- vpxor %xmm6, %xmm4, %xmm0
- cmpl $16, %eax
- je L_AES_GCM_encrypt_final_avx1_store_tag_16
- xorq %rcx, %rcx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_encrypt_final_avx1_store_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- movb %r13b, (%rsi,%rcx,1)
- incl %ecx
- cmpl %eax, %ecx
- jne L_AES_GCM_encrypt_final_avx1_store_tag_loop
- jmp L_AES_GCM_encrypt_final_avx1_store_tag_done
- L_AES_GCM_encrypt_final_avx1_store_tag_16:
- vmovdqu %xmm0, (%rsi)
- L_AES_GCM_encrypt_final_avx1_store_tag_done:
- vzeroupper
- addq $16, %rsp
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_final_avx1,.-AES_GCM_encrypt_final_avx1
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_update_avx1
- .type AES_GCM_decrypt_update_avx1,@function
- .align 16
- AES_GCM_decrypt_update_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_update_avx1
- .p2align 4
- _AES_GCM_decrypt_update_avx1:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %r14
- movq %rdx, %r10
- movq %rcx, %r11
- movq 32(%rsp), %rax
- movq 40(%rsp), %r12
- subq $0xa8, %rsp
- vmovdqa (%r9), %xmm6
- vmovdqa (%rax), %xmm5
- vpsrlq $63, %xmm5, %xmm9
- vpsllq $0x01, %xmm5, %xmm8
- vpslldq $8, %xmm9, %xmm9
- vpor %xmm9, %xmm8, %xmm8
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpxor %xmm8, %xmm5, %xmm5
- xorl %r14d, %r14d
- cmpl $0x80, %r8d
- movl %r8d, %r13d
- jl L_AES_GCM_decrypt_update_avx1_done_128
- andl $0xffffff80, %r13d
- vmovdqa %xmm6, %xmm2
- # H ^ 1
- vmovdqu %xmm5, (%rsp)
- # H ^ 2
- vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
- vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm0, %xmm0
- vmovdqu %xmm0, 16(%rsp)
- # H ^ 3
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm9
- vpshufd $0x4e, %xmm0, %xmm10
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
- vpxor %xmm5, %xmm9, %xmm9
- vpxor %xmm0, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm1
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm1, %xmm1
- vmovdqu %xmm1, 32(%rsp)
- # H ^ 4
- vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
- vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm3, %xmm3
- vmovdqu %xmm3, 48(%rsp)
- # H ^ 5
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm0, %xmm9
- vpshufd $0x4e, %xmm1, %xmm10
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
- vpxor %xmm0, %xmm9, %xmm9
- vpxor %xmm1, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 64(%rsp)
- # H ^ 6
- vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
- vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 80(%rsp)
- # H ^ 7
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm1, %xmm9
- vpshufd $0x4e, %xmm3, %xmm10
- vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
- vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm3, %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm11, %xmm9, %xmm9
- vpslldq $8, %xmm9, %xmm10
- vpsrldq $8, %xmm9, %xmm9
- vpxor %xmm10, %xmm8, %xmm8
- vpxor %xmm9, %xmm11, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 96(%rsp)
- # H ^ 8
- vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
- vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
- vpslld $31, %xmm8, %xmm12
- vpslld $30, %xmm8, %xmm13
- vpslld $25, %xmm8, %xmm14
- vpxor %xmm13, %xmm12, %xmm12
- vpxor %xmm14, %xmm12, %xmm12
- vpsrldq $4, %xmm12, %xmm13
- vpslldq $12, %xmm12, %xmm12
- vpxor %xmm12, %xmm8, %xmm8
- vpsrld $0x01, %xmm8, %xmm14
- vpsrld $2, %xmm8, %xmm10
- vpsrld $7, %xmm8, %xmm9
- vpxor %xmm10, %xmm14, %xmm14
- vpxor %xmm9, %xmm14, %xmm14
- vpxor %xmm13, %xmm14, %xmm14
- vpxor %xmm8, %xmm14, %xmm14
- vpxor %xmm14, %xmm7, %xmm7
- vmovdqu %xmm7, 112(%rsp)
- L_AES_GCM_decrypt_update_avx1_ghash_128:
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- vmovdqu (%r12), %xmm0
- vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm15, %xmm15
- vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
- vmovdqa (%rdi), %xmm7
- vmovdqu %xmm0, (%r12)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- vmovdqu 112(%rsp), %xmm7
- vmovdqu (%rcx), %xmm0
- vaesenc 16(%rdi), %xmm8, %xmm8
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
- vaesenc 16(%rdi), %xmm9, %xmm9
- vaesenc 16(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
- vaesenc 16(%rdi), %xmm11, %xmm11
- vaesenc 16(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
- vaesenc 16(%rdi), %xmm13, %xmm13
- vaesenc 16(%rdi), %xmm14, %xmm14
- vaesenc 16(%rdi), %xmm15, %xmm15
- vpxor %xmm2, %xmm1, %xmm1
- vpxor %xmm3, %xmm1, %xmm1
- vmovdqu 96(%rsp), %xmm7
- vmovdqu 16(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 32(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 32(%rdi), %xmm9, %xmm9
- vaesenc 32(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 32(%rdi), %xmm11, %xmm11
- vaesenc 32(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 32(%rdi), %xmm13, %xmm13
- vaesenc 32(%rdi), %xmm14, %xmm14
- vaesenc 32(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 80(%rsp), %xmm7
- vmovdqu 32(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 48(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 48(%rdi), %xmm9, %xmm9
- vaesenc 48(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 48(%rdi), %xmm11, %xmm11
- vaesenc 48(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 48(%rdi), %xmm13, %xmm13
- vaesenc 48(%rdi), %xmm14, %xmm14
- vaesenc 48(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 64(%rsp), %xmm7
- vmovdqu 48(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 64(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 64(%rdi), %xmm9, %xmm9
- vaesenc 64(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 64(%rdi), %xmm11, %xmm11
- vaesenc 64(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 64(%rdi), %xmm13, %xmm13
- vaesenc 64(%rdi), %xmm14, %xmm14
- vaesenc 64(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 48(%rsp), %xmm7
- vmovdqu 64(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 80(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 80(%rdi), %xmm9, %xmm9
- vaesenc 80(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 80(%rdi), %xmm11, %xmm11
- vaesenc 80(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 80(%rdi), %xmm13, %xmm13
- vaesenc 80(%rdi), %xmm14, %xmm14
- vaesenc 80(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 32(%rsp), %xmm7
- vmovdqu 80(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 96(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 96(%rdi), %xmm9, %xmm9
- vaesenc 96(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 96(%rdi), %xmm11, %xmm11
- vaesenc 96(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 96(%rdi), %xmm13, %xmm13
- vaesenc 96(%rdi), %xmm14, %xmm14
- vaesenc 96(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu 16(%rsp), %xmm7
- vmovdqu 96(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 112(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 112(%rdi), %xmm9, %xmm9
- vaesenc 112(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 112(%rdi), %xmm11, %xmm11
- vaesenc 112(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 112(%rdi), %xmm13, %xmm13
- vaesenc 112(%rdi), %xmm14, %xmm14
- vaesenc 112(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vmovdqu (%rsp), %xmm7
- vmovdqu 112(%rcx), %xmm0
- vpshufd $0x4e, %xmm7, %xmm4
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vaesenc 128(%rdi), %xmm8, %xmm8
- vpxor %xmm7, %xmm4, %xmm4
- vpshufd $0x4e, %xmm0, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
- vaesenc 128(%rdi), %xmm9, %xmm9
- vaesenc 128(%rdi), %xmm10, %xmm10
- vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
- vaesenc 128(%rdi), %xmm11, %xmm11
- vaesenc 128(%rdi), %xmm12, %xmm12
- vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
- vaesenc 128(%rdi), %xmm13, %xmm13
- vaesenc 128(%rdi), %xmm14, %xmm14
- vaesenc 128(%rdi), %xmm15, %xmm15
- vpxor %xmm7, %xmm1, %xmm1
- vpxor %xmm7, %xmm2, %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpxor %xmm6, %xmm3, %xmm3
- vpxor %xmm4, %xmm1, %xmm1
- vpslldq $8, %xmm1, %xmm5
- vpsrldq $8, %xmm1, %xmm1
- vaesenc 144(%rdi), %xmm8, %xmm8
- vpxor %xmm5, %xmm2, %xmm2
- vpxor %xmm1, %xmm3, %xmm3
- vaesenc 144(%rdi), %xmm9, %xmm9
- vpslld $31, %xmm2, %xmm7
- vpslld $30, %xmm2, %xmm4
- vpslld $25, %xmm2, %xmm5
- vaesenc 144(%rdi), %xmm10, %xmm10
- vpxor %xmm4, %xmm7, %xmm7
- vpxor %xmm5, %xmm7, %xmm7
- vaesenc 144(%rdi), %xmm11, %xmm11
- vpsrldq $4, %xmm7, %xmm4
- vpslldq $12, %xmm7, %xmm7
- vaesenc 144(%rdi), %xmm12, %xmm12
- vpxor %xmm7, %xmm2, %xmm2
- vpsrld $0x01, %xmm2, %xmm5
- vaesenc 144(%rdi), %xmm13, %xmm13
- vpsrld $2, %xmm2, %xmm1
- vpsrld $7, %xmm2, %xmm0
- vaesenc 144(%rdi), %xmm14, %xmm14
- vpxor %xmm1, %xmm5, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- vaesenc 144(%rdi), %xmm15, %xmm15
- vpxor %xmm4, %xmm5, %xmm5
- vpxor %xmm5, %xmm2, %xmm2
- vpxor %xmm3, %xmm2, %xmm2
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm7
- jl L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 176(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm7
- jl L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 208(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqa 224(%rdi), %xmm7
- L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done:
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vmovdqu (%rcx), %xmm0
- vmovdqu 16(%rcx), %xmm1
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vmovdqu %xmm8, (%rdx)
- vmovdqu %xmm9, 16(%rdx)
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu 32(%rcx), %xmm0
- vmovdqu 48(%rcx), %xmm1
- vpxor %xmm0, %xmm10, %xmm10
- vpxor %xmm1, %xmm11, %xmm11
- vmovdqu %xmm10, 32(%rdx)
- vmovdqu %xmm11, 48(%rdx)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vmovdqu 64(%rcx), %xmm0
- vmovdqu 80(%rcx), %xmm1
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vmovdqu %xmm12, 64(%rdx)
- vmovdqu %xmm13, 80(%rdx)
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 96(%rcx), %xmm0
- vmovdqu 112(%rcx), %xmm1
- vpxor %xmm0, %xmm14, %xmm14
- vpxor %xmm1, %xmm15, %xmm15
- vmovdqu %xmm14, 96(%rdx)
- vmovdqu %xmm15, 112(%rdx)
- addl $0x80, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_decrypt_update_avx1_ghash_128
- vmovdqa %xmm2, %xmm6
- vmovdqu (%rsp), %xmm5
- L_AES_GCM_decrypt_update_avx1_done_128:
- movl %r8d, %edx
- cmpl %edx, %r14d
- jge L_AES_GCM_decrypt_update_avx1_done_dec
- movl %r8d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %r14d
- jge L_AES_GCM_decrypt_update_avx1_last_block_done
- L_AES_GCM_decrypt_update_avx1_last_block_start:
- vmovdqu (%r11,%r14,1), %xmm13
- vmovdqa %xmm5, %xmm0
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm13, %xmm1
- vpxor %xmm6, %xmm1, %xmm1
- vmovdqu (%r12), %xmm9
- vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
- vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
- vmovdqu %xmm9, (%r12)
- vpxor (%rdi), %xmm8, %xmm8
- vpclmulqdq $16, %xmm0, %xmm1, %xmm10
- vaesenc 16(%rdi), %xmm8, %xmm8
- vaesenc 32(%rdi), %xmm8, %xmm8
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm11
- vaesenc 48(%rdi), %xmm8, %xmm8
- vaesenc 64(%rdi), %xmm8, %xmm8
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm12
- vaesenc 80(%rdi), %xmm8, %xmm8
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vaesenc 96(%rdi), %xmm8, %xmm8
- vpxor %xmm11, %xmm10, %xmm10
- vpslldq $8, %xmm10, %xmm2
- vpsrldq $8, %xmm10, %xmm10
- vaesenc 112(%rdi), %xmm8, %xmm8
- vpxor %xmm12, %xmm2, %xmm2
- vpxor %xmm10, %xmm1, %xmm3
- vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
- vpclmulqdq $16, %xmm0, %xmm2, %xmm11
- vaesenc 128(%rdi), %xmm8, %xmm8
- vpshufd $0x4e, %xmm2, %xmm10
- vpxor %xmm11, %xmm10, %xmm10
- vpclmulqdq $16, %xmm0, %xmm10, %xmm11
- vaesenc 144(%rdi), %xmm8, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpxor %xmm11, %xmm10, %xmm10
- vpxor %xmm3, %xmm10, %xmm6
- cmpl $11, %esi
- vmovdqa 160(%rdi), %xmm9
- jl L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 176(%rdi), %xmm8, %xmm8
- cmpl $13, %esi
- vmovdqa 192(%rdi), %xmm9
- jl L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last
- vaesenc %xmm9, %xmm8, %xmm8
- vaesenc 208(%rdi), %xmm8, %xmm8
- vmovdqa 224(%rdi), %xmm9
- L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last:
- vaesenclast %xmm9, %xmm8, %xmm8
- vmovdqa %xmm13, %xmm0
- vpxor %xmm0, %xmm8, %xmm8
- vmovdqu %xmm8, (%r10,%r14,1)
- addl $16, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_decrypt_update_avx1_last_block_start
- L_AES_GCM_decrypt_update_avx1_last_block_done:
- L_AES_GCM_decrypt_update_avx1_done_dec:
- vmovdqa %xmm6, (%r9)
- vzeroupper
- addq $0xa8, %rsp
- popq %r14
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_update_avx1,.-AES_GCM_decrypt_update_avx1
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_final_avx1
- .type AES_GCM_decrypt_final_avx1,@function
- .align 16
- AES_GCM_decrypt_final_avx1:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_final_avx1
- .p2align 4
- _AES_GCM_decrypt_final_avx1:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %rbp
- pushq %r12
- movl %edx, %eax
- movl %ecx, %r10d
- movl %r8d, %r11d
- movq 32(%rsp), %r8
- movq 40(%rsp), %rbp
- subq $16, %rsp
- vmovdqa (%rdi), %xmm6
- vmovdqa (%r9), %xmm5
- vmovdqa (%r8), %xmm15
- vpsrlq $63, %xmm5, %xmm8
- vpsllq $0x01, %xmm5, %xmm7
- vpslldq $8, %xmm8, %xmm8
- vpor %xmm8, %xmm7, %xmm7
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpxor %xmm7, %xmm5, %xmm5
- movl %r10d, %edx
- movl %r11d, %ecx
- shlq $3, %rdx
- shlq $3, %rcx
- vmovq %rdx, %xmm0
- vmovq %rcx, %xmm1
- vpunpcklqdq %xmm1, %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- # ghash_gfmul_red_avx
- vpshufd $0x4e, %xmm5, %xmm8
- vpshufd $0x4e, %xmm6, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm10
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm7
- vpxor %xmm5, %xmm8, %xmm8
- vpxor %xmm6, %xmm9, %xmm9
- vpclmulqdq $0x00, %xmm9, %xmm8, %xmm8
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm10, %xmm8, %xmm8
- vpslldq $8, %xmm8, %xmm9
- vpsrldq $8, %xmm8, %xmm8
- vpxor %xmm9, %xmm7, %xmm7
- vpxor %xmm8, %xmm10, %xmm6
- vpslld $31, %xmm7, %xmm11
- vpslld $30, %xmm7, %xmm12
- vpslld $25, %xmm7, %xmm13
- vpxor %xmm12, %xmm11, %xmm11
- vpxor %xmm13, %xmm11, %xmm11
- vpsrldq $4, %xmm11, %xmm12
- vpslldq $12, %xmm11, %xmm11
- vpxor %xmm11, %xmm7, %xmm7
- vpsrld $0x01, %xmm7, %xmm13
- vpsrld $2, %xmm7, %xmm9
- vpsrld $7, %xmm7, %xmm8
- vpxor %xmm9, %xmm13, %xmm13
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm13, %xmm13
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm13, %xmm6, %xmm6
- vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
- vpxor %xmm15, %xmm6, %xmm0
- cmpl $16, %eax
- je L_AES_GCM_decrypt_final_avx1_cmp_tag_16
- subq $16, %rsp
- xorq %rcx, %rcx
- xorq %r12, %r12
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_decrypt_final_avx1_cmp_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- xorb (%rsi,%rcx,1), %r13b
- orb %r13b, %r12b
- incl %ecx
- cmpl %eax, %ecx
- jne L_AES_GCM_decrypt_final_avx1_cmp_tag_loop
- cmpb $0x00, %r12b
- sete %r12b
- addq $16, %rsp
- xorq %rcx, %rcx
- jmp L_AES_GCM_decrypt_final_avx1_cmp_tag_done
- L_AES_GCM_decrypt_final_avx1_cmp_tag_16:
- vmovdqu (%rsi), %xmm1
- vpcmpeqb %xmm1, %xmm0, %xmm0
- vpmovmskb %xmm0, %rdx
- # %%edx == 0xFFFF then return 1 else => return 0
- xorl %r12d, %r12d
- cmpl $0xffff, %edx
- sete %r12b
- L_AES_GCM_decrypt_final_avx1_cmp_tag_done:
- movl %r12d, (%rbp)
- vzeroupper
- addq $16, %rsp
- popq %r12
- popq %rbp
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_final_avx1,.-AES_GCM_decrypt_final_avx1
- #endif /* __APPLE__ */
- #endif /* WOLFSSL_AESGCM_STREAM */
- #endif /* HAVE_INTEL_AVX1 */
- #ifdef HAVE_INTEL_AVX2
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_one:
- .quad 0x0, 0x1
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_two:
- .quad 0x0, 0x2
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_three:
- .quad 0x0, 0x3
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_four:
- .quad 0x0, 0x4
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_five:
- .quad 0x0, 0x5
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_six:
- .quad 0x0, 0x6
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_seven:
- .quad 0x0, 0x7
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_eight:
- .quad 0x0, 0x8
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_bswap_one:
- .quad 0x0, 0x100000000000000
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_bswap_epi64:
- .quad 0x1020304050607, 0x8090a0b0c0d0e0f
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_bswap_mask:
- .quad 0x8090a0b0c0d0e0f, 0x1020304050607
- #ifndef __APPLE__
- .data
- #else
- .section __DATA,__data
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .align 16
- #else
- .p2align 4
- #endif /* __APPLE__ */
- L_avx2_aes_gcm_mod2_128:
- .quad 0x1, 0xc200000000000000
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_avx2
- .type AES_GCM_encrypt_avx2,@function
- .align 16
- AES_GCM_encrypt_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_avx2
- .p2align 4
- _AES_GCM_encrypt_avx2:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %r15
- pushq %rbx
- pushq %r14
- movq %rdx, %r12
- movq %rcx, %rax
- movq %r8, %r15
- movq %rsi, %r8
- movl %r9d, %r10d
- movl 48(%rsp), %r11d
- movl 56(%rsp), %ebx
- movl 64(%rsp), %r14d
- movq 72(%rsp), %rsi
- movl 80(%rsp), %r9d
- subq $0xa0, %rsp
- vpxor %xmm4, %xmm4, %xmm4
- vpxor %xmm6, %xmm6, %xmm6
- movl %ebx, %edx
- cmpl $12, %edx
- je L_AES_GCM_encrypt_avx2_iv_12
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- vmovdqu (%rsi), %xmm5
- vaesenc 16(%rsi), %xmm5, %xmm5
- vaesenc 32(%rsi), %xmm5, %xmm5
- vaesenc 48(%rsi), %xmm5, %xmm5
- vaesenc 64(%rsi), %xmm5, %xmm5
- vaesenc 80(%rsi), %xmm5, %xmm5
- vaesenc 96(%rsi), %xmm5, %xmm5
- vaesenc 112(%rsi), %xmm5, %xmm5
- vaesenc 128(%rsi), %xmm5, %xmm5
- vaesenc 144(%rsi), %xmm5, %xmm5
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm0
- jl L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc 176(%rsi), %xmm5, %xmm5
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm0
- jl L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc 208(%rsi), %xmm5, %xmm5
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last:
- vaesenclast %xmm0, %xmm5, %xmm5
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_encrypt_avx2_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_encrypt_avx2_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_encrypt_avx2_calc_iv_16_loop:
- vmovdqu (%rax,%rcx,1), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_avx2_calc_iv_16_loop
- movl %ebx, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_encrypt_avx2_calc_iv_done
- L_AES_GCM_encrypt_avx2_calc_iv_lt16:
- vpxor %xmm0, %xmm0, %xmm0
- xorl %ebx, %ebx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_encrypt_avx2_calc_iv_loop:
- movzbl (%rax,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_avx2_calc_iv_loop
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- L_AES_GCM_encrypt_avx2_calc_iv_done:
- # T = Encrypt counter
- vpxor %xmm0, %xmm0, %xmm0
- shll $3, %edx
- vmovq %rdx, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- # Encrypt counter
- vmovdqu (%rsi), %xmm15
- vpxor %xmm4, %xmm15, %xmm15
- vaesenc 16(%rsi), %xmm15, %xmm15
- vaesenc 32(%rsi), %xmm15, %xmm15
- vaesenc 48(%rsi), %xmm15, %xmm15
- vaesenc 64(%rsi), %xmm15, %xmm15
- vaesenc 80(%rsi), %xmm15, %xmm15
- vaesenc 96(%rsi), %xmm15, %xmm15
- vaesenc 112(%rsi), %xmm15, %xmm15
- vaesenc 128(%rsi), %xmm15, %xmm15
- vaesenc 144(%rsi), %xmm15, %xmm15
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm0
- jl L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last
- vaesenc %xmm0, %xmm15, %xmm15
- vaesenc 176(%rsi), %xmm15, %xmm15
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm0
- jl L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last
- vaesenc %xmm0, %xmm15, %xmm15
- vaesenc 208(%rsi), %xmm15, %xmm15
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last:
- vaesenclast %xmm0, %xmm15, %xmm15
- jmp L_AES_GCM_encrypt_avx2_iv_done
- L_AES_GCM_encrypt_avx2_iv_12:
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- vmovdqu L_avx2_aes_gcm_bswap_one(%rip), %xmm4
- vmovdqu (%rsi), %xmm5
- vpblendd $7, (%rax), %xmm4, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- vmovdqu 16(%rsi), %xmm7
- vpxor %xmm5, %xmm4, %xmm15
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 32(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 48(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 64(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 80(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 96(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 112(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 128(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 144(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm0
- jl L_AES_GCM_encrypt_avx2_calc_iv_12_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 176(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm0
- jl L_AES_GCM_encrypt_avx2_calc_iv_12_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 208(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_encrypt_avx2_calc_iv_12_last:
- vaesenclast %xmm0, %xmm5, %xmm5
- vaesenclast %xmm0, %xmm15, %xmm15
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- L_AES_GCM_encrypt_avx2_iv_done:
- # Additional authentication data
- movl %r11d, %edx
- cmpl $0x00, %edx
- je L_AES_GCM_encrypt_avx2_calc_aad_done
- xorl %ecx, %ecx
- cmpl $16, %edx
- jl L_AES_GCM_encrypt_avx2_calc_aad_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_encrypt_avx2_calc_aad_16_loop:
- vmovdqu (%r12,%rcx,1), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm6, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm6
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm6, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm6, %xmm6
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm6, %xmm6
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm6, %xmm6
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm6, %xmm6
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_avx2_calc_aad_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_encrypt_avx2_calc_aad_done
- L_AES_GCM_encrypt_avx2_calc_aad_lt16:
- vpxor %xmm0, %xmm0, %xmm0
- xorl %ebx, %ebx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_encrypt_avx2_calc_aad_loop:
- movzbl (%r12,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_encrypt_avx2_calc_aad_loop
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm6, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm6
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm6, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm6, %xmm6
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm6, %xmm6
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm6, %xmm6
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm6, %xmm6
- L_AES_GCM_encrypt_avx2_calc_aad_done:
- # Calculate counter and H
- vpsrlq $63, %xmm5, %xmm1
- vpsllq $0x01, %xmm5, %xmm0
- vpslldq $8, %xmm1, %xmm1
- vpor %xmm1, %xmm0, %xmm0
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
- vpxor %xmm0, %xmm5, %xmm5
- xorl %ebx, %ebx
- cmpl $0x80, %r10d
- movl %r10d, %r13d
- jl L_AES_GCM_encrypt_avx2_done_128
- andl $0xffffff80, %r13d
- vmovdqu %xmm4, 128(%rsp)
- vmovdqu %xmm15, 144(%rsp)
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm3
- # H ^ 1 and H ^ 2
- vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
- vpclmulqdq $16, %xmm3, %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpclmulqdq $16, %xmm3, %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm9, %xmm10, %xmm0
- vmovdqu %xmm5, (%rsp)
- vmovdqu %xmm0, 16(%rsp)
- # H ^ 3 and H ^ 4
- vpclmulqdq $16, %xmm5, %xmm0, %xmm11
- vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
- vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
- vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm2
- vpxor %xmm9, %xmm10, %xmm1
- vmovdqu %xmm1, 32(%rsp)
- vmovdqu %xmm2, 48(%rsp)
- # H ^ 5 and H ^ 6
- vpclmulqdq $16, %xmm0, %xmm1, %xmm11
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
- vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
- vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm0
- vpxor %xmm9, %xmm10, %xmm7
- vmovdqu %xmm7, 64(%rsp)
- vmovdqu %xmm0, 80(%rsp)
- # H ^ 7 and H ^ 8
- vpclmulqdq $16, %xmm1, %xmm2, %xmm11
- vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
- vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
- vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
- vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
- vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm0
- vpxor %xmm9, %xmm10, %xmm7
- vmovdqu %xmm7, 96(%rsp)
- vmovdqu %xmm0, 112(%rsp)
- # First 128 bytes of input
- # aesenc_128
- # aesenc_ctr
- vmovdqu 128(%rsp), %xmm0
- vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
- vpshufb %xmm1, %xmm15, %xmm15
- # aesenc_xor
- vmovdqu (%rsi), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- vmovdqu 16(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 32(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 48(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 64(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 80(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 96(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 112(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 128(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 144(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm7
- jl L_AES_GCM_encrypt_avx2_aesenc_128_enc_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 176(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm7
- jl L_AES_GCM_encrypt_avx2_aesenc_128_enc_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 208(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 224(%rsi), %xmm7
- L_AES_GCM_encrypt_avx2_aesenc_128_enc_done:
- # aesenc_last
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu (%rdi), %xmm0
- vmovdqu 16(%rdi), %xmm1
- vmovdqu 32(%rdi), %xmm2
- vmovdqu 48(%rdi), %xmm3
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm2, %xmm10, %xmm10
- vpxor %xmm3, %xmm11, %xmm11
- vmovdqu %xmm8, (%r8)
- vmovdqu %xmm9, 16(%r8)
- vmovdqu %xmm10, 32(%r8)
- vmovdqu %xmm11, 48(%r8)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 64(%rdi), %xmm0
- vmovdqu 80(%rdi), %xmm1
- vmovdqu 96(%rdi), %xmm2
- vmovdqu 112(%rdi), %xmm3
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vpxor %xmm2, %xmm14, %xmm14
- vpxor %xmm3, %xmm15, %xmm15
- vmovdqu %xmm12, 64(%r8)
- vmovdqu %xmm13, 80(%r8)
- vmovdqu %xmm14, 96(%r8)
- vmovdqu %xmm15, 112(%r8)
- cmpl $0x80, %r13d
- movl $0x80, %ebx
- jle L_AES_GCM_encrypt_avx2_end_128
- # More 128 bytes of input
- L_AES_GCM_encrypt_avx2_ghash_128:
- # aesenc_128_ghash
- leaq (%rdi,%rbx,1), %rcx
- leaq (%r8,%rbx,1), %rdx
- # aesenc_ctr
- vmovdqu 128(%rsp), %xmm0
- vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
- vpshufb %xmm1, %xmm15, %xmm15
- # aesenc_xor
- vmovdqu (%rsi), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- # aesenc_pclmul_1
- vmovdqu -128(%rdx), %xmm1
- vmovdqu 16(%rsi), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vmovdqu 112(%rsp), %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm5
- vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
- vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_2
- vmovdqu -112(%rdx), %xmm1
- vmovdqu 96(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 32(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -96(%rdx), %xmm1
- vmovdqu 80(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 48(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -80(%rdx), %xmm1
- vmovdqu 64(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 64(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -64(%rdx), %xmm1
- vmovdqu 48(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 80(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -48(%rdx), %xmm1
- vmovdqu 32(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 96(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -32(%rdx), %xmm1
- vmovdqu 16(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 112(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -16(%rdx), %xmm1
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 128(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_l
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm4, %xmm6, %xmm6
- vpxor %xmm3, %xmm5, %xmm5
- vpslldq $8, %xmm5, %xmm1
- vpsrldq $8, %xmm5, %xmm5
- vmovdqu 144(%rsi), %xmm4
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm0
- vaesenc %xmm4, %xmm8, %xmm8
- vpxor %xmm1, %xmm6, %xmm6
- vpxor %xmm5, %xmm7, %xmm7
- vpclmulqdq $16, %xmm0, %xmm6, %xmm3
- vaesenc %xmm4, %xmm9, %xmm9
- vaesenc %xmm4, %xmm10, %xmm10
- vaesenc %xmm4, %xmm11, %xmm11
- vpshufd $0x4e, %xmm6, %xmm6
- vpxor %xmm3, %xmm6, %xmm6
- vpclmulqdq $16, %xmm0, %xmm6, %xmm3
- vaesenc %xmm4, %xmm12, %xmm12
- vaesenc %xmm4, %xmm13, %xmm13
- vaesenc %xmm4, %xmm14, %xmm14
- vpshufd $0x4e, %xmm6, %xmm6
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm7, %xmm6, %xmm6
- vaesenc %xmm4, %xmm15, %xmm15
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm7
- jl L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 176(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm7
- jl L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 208(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 224(%rsi), %xmm7
- L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done:
- # aesenc_last
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu (%rcx), %xmm0
- vmovdqu 16(%rcx), %xmm1
- vmovdqu 32(%rcx), %xmm2
- vmovdqu 48(%rcx), %xmm3
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm2, %xmm10, %xmm10
- vpxor %xmm3, %xmm11, %xmm11
- vmovdqu %xmm8, (%rdx)
- vmovdqu %xmm9, 16(%rdx)
- vmovdqu %xmm10, 32(%rdx)
- vmovdqu %xmm11, 48(%rdx)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 64(%rcx), %xmm0
- vmovdqu 80(%rcx), %xmm1
- vmovdqu 96(%rcx), %xmm2
- vmovdqu 112(%rcx), %xmm3
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vpxor %xmm2, %xmm14, %xmm14
- vpxor %xmm3, %xmm15, %xmm15
- vmovdqu %xmm12, 64(%rdx)
- vmovdqu %xmm13, 80(%rdx)
- vmovdqu %xmm14, 96(%rdx)
- vmovdqu %xmm15, 112(%rdx)
- # aesenc_128_ghash - end
- addl $0x80, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_encrypt_avx2_ghash_128
- L_AES_GCM_encrypt_avx2_end_128:
- vmovdqu L_avx2_aes_gcm_bswap_mask(%rip), %xmm4
- vpshufb %xmm4, %xmm8, %xmm8
- vpshufb %xmm4, %xmm9, %xmm9
- vpshufb %xmm4, %xmm10, %xmm10
- vpshufb %xmm4, %xmm11, %xmm11
- vpshufb %xmm4, %xmm12, %xmm12
- vpshufb %xmm4, %xmm13, %xmm13
- vpshufb %xmm4, %xmm14, %xmm14
- vpshufb %xmm4, %xmm15, %xmm15
- vpxor %xmm6, %xmm8, %xmm8
- vmovdqu (%rsp), %xmm7
- vpclmulqdq $16, %xmm15, %xmm7, %xmm5
- vpclmulqdq $0x01, %xmm15, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm15, %xmm7, %xmm4
- vpclmulqdq $0x11, %xmm15, %xmm7, %xmm6
- vpxor %xmm1, %xmm5, %xmm5
- vmovdqu 16(%rsp), %xmm7
- vpclmulqdq $16, %xmm14, %xmm7, %xmm2
- vpclmulqdq $0x01, %xmm14, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm14, %xmm7, %xmm0
- vpclmulqdq $0x11, %xmm14, %xmm7, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vmovdqu 32(%rsp), %xmm15
- vmovdqu 48(%rsp), %xmm7
- vpclmulqdq $16, %xmm13, %xmm15, %xmm2
- vpclmulqdq $0x01, %xmm13, %xmm15, %xmm1
- vpclmulqdq $0x00, %xmm13, %xmm15, %xmm0
- vpclmulqdq $0x11, %xmm13, %xmm15, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vpclmulqdq $16, %xmm12, %xmm7, %xmm2
- vpclmulqdq $0x01, %xmm12, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm12, %xmm7, %xmm0
- vpclmulqdq $0x11, %xmm12, %xmm7, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vmovdqu 64(%rsp), %xmm15
- vmovdqu 80(%rsp), %xmm7
- vpclmulqdq $16, %xmm11, %xmm15, %xmm2
- vpclmulqdq $0x01, %xmm11, %xmm15, %xmm1
- vpclmulqdq $0x00, %xmm11, %xmm15, %xmm0
- vpclmulqdq $0x11, %xmm11, %xmm15, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vpclmulqdq $16, %xmm10, %xmm7, %xmm2
- vpclmulqdq $0x01, %xmm10, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm10, %xmm7, %xmm0
- vpclmulqdq $0x11, %xmm10, %xmm7, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vmovdqu 96(%rsp), %xmm15
- vmovdqu 112(%rsp), %xmm7
- vpclmulqdq $16, %xmm9, %xmm15, %xmm2
- vpclmulqdq $0x01, %xmm9, %xmm15, %xmm1
- vpclmulqdq $0x00, %xmm9, %xmm15, %xmm0
- vpclmulqdq $0x11, %xmm9, %xmm15, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vpclmulqdq $16, %xmm8, %xmm7, %xmm2
- vpclmulqdq $0x01, %xmm8, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm8, %xmm7, %xmm0
- vpclmulqdq $0x11, %xmm8, %xmm7, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vpslldq $8, %xmm5, %xmm7
- vpsrldq $8, %xmm5, %xmm5
- vpxor %xmm7, %xmm4, %xmm4
- vpxor %xmm5, %xmm6, %xmm6
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm4, %xmm0
- vpshufd $0x4e, %xmm4, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm6, %xmm6
- vmovdqu (%rsp), %xmm5
- vmovdqu 128(%rsp), %xmm4
- vmovdqu 144(%rsp), %xmm15
- L_AES_GCM_encrypt_avx2_done_128:
- cmpl %r10d, %ebx
- je L_AES_GCM_encrypt_avx2_done_enc
- movl %r10d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %ebx
- jge L_AES_GCM_encrypt_avx2_last_block_done
- # aesenc_block
- vmovdqu %xmm4, %xmm1
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
- vpxor (%rsi), %xmm0, %xmm0
- vmovdqu 16(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 32(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 48(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 64(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 80(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 96(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 112(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 128(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 144(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu %xmm1, %xmm4
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm1
- jl L_AES_GCM_encrypt_avx2_aesenc_block_last
- vaesenc %xmm1, %xmm0, %xmm0
- vmovdqu 176(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm1
- jl L_AES_GCM_encrypt_avx2_aesenc_block_last
- vaesenc %xmm1, %xmm0, %xmm0
- vmovdqu 208(%rsi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 224(%rsi), %xmm1
- L_AES_GCM_encrypt_avx2_aesenc_block_last:
- vaesenclast %xmm1, %xmm0, %xmm0
- vmovdqu (%rdi,%rbx,1), %xmm1
- vpxor %xmm1, %xmm0, %xmm0
- vmovdqu %xmm0, (%r8,%rbx,1)
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- addl $16, %ebx
- cmpl %r13d, %ebx
- jge L_AES_GCM_encrypt_avx2_last_block_ghash
- L_AES_GCM_encrypt_avx2_last_block_start:
- vmovdqu (%rdi,%rbx,1), %xmm12
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm11
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
- # aesenc_gfmul_sb
- vpclmulqdq $0x01, %xmm5, %xmm6, %xmm2
- vpclmulqdq $16, %xmm5, %xmm6, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm1
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm8
- vpxor (%rsi), %xmm11, %xmm11
- vaesenc 16(%rsi), %xmm11, %xmm11
- vpxor %xmm2, %xmm3, %xmm3
- vpslldq $8, %xmm3, %xmm2
- vpsrldq $8, %xmm3, %xmm3
- vaesenc 32(%rsi), %xmm11, %xmm11
- vpxor %xmm1, %xmm2, %xmm2
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
- vaesenc 48(%rsi), %xmm11, %xmm11
- vaesenc 64(%rsi), %xmm11, %xmm11
- vaesenc 80(%rsi), %xmm11, %xmm11
- vpshufd $0x4e, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
- vaesenc 96(%rsi), %xmm11, %xmm11
- vaesenc 112(%rsi), %xmm11, %xmm11
- vaesenc 128(%rsi), %xmm11, %xmm11
- vpshufd $0x4e, %xmm2, %xmm2
- vaesenc 144(%rsi), %xmm11, %xmm11
- vpxor %xmm3, %xmm8, %xmm8
- vpxor %xmm8, %xmm2, %xmm2
- vmovdqu 160(%rsi), %xmm0
- cmpl $11, %r9d
- jl L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc 176(%rsi), %xmm11, %xmm11
- vmovdqu 192(%rsi), %xmm0
- cmpl $13, %r9d
- jl L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc 208(%rsi), %xmm11, %xmm11
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last:
- vaesenclast %xmm0, %xmm11, %xmm11
- vpxor %xmm1, %xmm2, %xmm6
- vpxor %xmm12, %xmm11, %xmm11
- vmovdqu %xmm11, (%r8,%rbx,1)
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm11
- vpxor %xmm11, %xmm6, %xmm6
- addl $16, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_encrypt_avx2_last_block_start
- L_AES_GCM_encrypt_avx2_last_block_ghash:
- # ghash_gfmul_red
- vpclmulqdq $16, %xmm5, %xmm6, %xmm10
- vpclmulqdq $0x01, %xmm5, %xmm6, %xmm9
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
- vpxor %xmm9, %xmm10, %xmm10
- vpslldq $8, %xmm10, %xmm9
- vpsrldq $8, %xmm10, %xmm10
- vpxor %xmm8, %xmm9, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm10, %xmm6, %xmm6
- vpxor %xmm9, %xmm6, %xmm6
- vpxor %xmm8, %xmm6, %xmm6
- L_AES_GCM_encrypt_avx2_last_block_done:
- movl %r10d, %ecx
- movl %r10d, %edx
- andl $15, %ecx
- jz L_AES_GCM_encrypt_avx2_done_enc
- # aesenc_last15_enc
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpxor (%rsi), %xmm4, %xmm4
- vaesenc 16(%rsi), %xmm4, %xmm4
- vaesenc 32(%rsi), %xmm4, %xmm4
- vaesenc 48(%rsi), %xmm4, %xmm4
- vaesenc 64(%rsi), %xmm4, %xmm4
- vaesenc 80(%rsi), %xmm4, %xmm4
- vaesenc 96(%rsi), %xmm4, %xmm4
- vaesenc 112(%rsi), %xmm4, %xmm4
- vaesenc 128(%rsi), %xmm4, %xmm4
- vaesenc 144(%rsi), %xmm4, %xmm4
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm0
- jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last
- vaesenc %xmm0, %xmm4, %xmm4
- vaesenc 176(%rsi), %xmm4, %xmm4
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm0
- jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last
- vaesenc %xmm0, %xmm4, %xmm4
- vaesenc 208(%rsi), %xmm4, %xmm4
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last:
- vaesenclast %xmm0, %xmm4, %xmm4
- xorl %ecx, %ecx
- vpxor %xmm0, %xmm0, %xmm0
- vmovdqu %xmm4, (%rsp)
- vmovdqu %xmm0, 16(%rsp)
- L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_loop:
- movzbl (%rdi,%rbx,1), %r13d
- xorb (%rsp,%rcx,1), %r13b
- movb %r13b, 16(%rsp,%rcx,1)
- movb %r13b, (%r8,%rbx,1)
- incl %ebx
- incl %ecx
- cmpl %edx, %ebx
- jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_loop
- L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_finish_enc:
- vmovdqu 16(%rsp), %xmm4
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- vpxor %xmm4, %xmm6, %xmm6
- # ghash_gfmul_red
- vpclmulqdq $16, %xmm5, %xmm6, %xmm2
- vpclmulqdq $0x01, %xmm5, %xmm6, %xmm1
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm2, %xmm6, %xmm6
- vpxor %xmm1, %xmm6, %xmm6
- vpxor %xmm0, %xmm6, %xmm6
- L_AES_GCM_encrypt_avx2_done_enc:
- # calc_tag
- shlq $3, %r10
- shlq $3, %r11
- vmovq %r10, %xmm0
- vmovq %r11, %xmm1
- vpunpcklqdq %xmm1, %xmm0, %xmm0
- vpxor %xmm6, %xmm0, %xmm0
- # ghash_gfmul_red
- vpclmulqdq $16, %xmm5, %xmm0, %xmm4
- vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
- vpxor %xmm3, %xmm4, %xmm4
- vpslldq $8, %xmm4, %xmm3
- vpsrldq $8, %xmm4, %xmm4
- vpxor %xmm2, %xmm3, %xmm3
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
- vpshufd $0x4e, %xmm3, %xmm3
- vpxor %xmm2, %xmm3, %xmm3
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
- vpshufd $0x4e, %xmm3, %xmm3
- vpxor %xmm4, %xmm0, %xmm0
- vpxor %xmm3, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm15, %xmm0, %xmm0
- # store_tag
- cmpl $16, %r14d
- je L_AES_GCM_encrypt_avx2_store_tag_16
- xorq %rcx, %rcx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_encrypt_avx2_store_tag_loop:
- movzbl (%rsp,%rcx,1), %r13d
- movb %r13b, (%r15,%rcx,1)
- incl %ecx
- cmpl %r14d, %ecx
- jne L_AES_GCM_encrypt_avx2_store_tag_loop
- jmp L_AES_GCM_encrypt_avx2_store_tag_done
- L_AES_GCM_encrypt_avx2_store_tag_16:
- vmovdqu %xmm0, (%r15)
- L_AES_GCM_encrypt_avx2_store_tag_done:
- vzeroupper
- addq $0xa0, %rsp
- popq %r14
- popq %rbx
- popq %r15
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_avx2,.-AES_GCM_encrypt_avx2
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_avx2
- .type AES_GCM_decrypt_avx2,@function
- .align 16
- AES_GCM_decrypt_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_avx2
- .p2align 4
- _AES_GCM_decrypt_avx2:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %r14
- pushq %rbx
- pushq %r15
- pushq %rbp
- movq %rdx, %r12
- movq %rcx, %rax
- movq %r8, %r14
- movq %rsi, %r8
- movl %r9d, %r10d
- movl 56(%rsp), %r11d
- movl 64(%rsp), %ebx
- movl 72(%rsp), %r15d
- movq 80(%rsp), %rsi
- movl 88(%rsp), %r9d
- movq 96(%rsp), %rbp
- subq $0xa8, %rsp
- vpxor %xmm4, %xmm4, %xmm4
- vpxor %xmm6, %xmm6, %xmm6
- movl %ebx, %edx
- cmpl $12, %edx
- je L_AES_GCM_decrypt_avx2_iv_12
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- vmovdqu (%rsi), %xmm5
- vaesenc 16(%rsi), %xmm5, %xmm5
- vaesenc 32(%rsi), %xmm5, %xmm5
- vaesenc 48(%rsi), %xmm5, %xmm5
- vaesenc 64(%rsi), %xmm5, %xmm5
- vaesenc 80(%rsi), %xmm5, %xmm5
- vaesenc 96(%rsi), %xmm5, %xmm5
- vaesenc 112(%rsi), %xmm5, %xmm5
- vaesenc 128(%rsi), %xmm5, %xmm5
- vaesenc 144(%rsi), %xmm5, %xmm5
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm0
- jl L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc 176(%rsi), %xmm5, %xmm5
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm0
- jl L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc 208(%rsi), %xmm5, %xmm5
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last:
- vaesenclast %xmm0, %xmm5, %xmm5
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_decrypt_avx2_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_decrypt_avx2_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_decrypt_avx2_calc_iv_16_loop:
- vmovdqu (%rax,%rcx,1), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_avx2_calc_iv_16_loop
- movl %ebx, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_decrypt_avx2_calc_iv_done
- L_AES_GCM_decrypt_avx2_calc_iv_lt16:
- vpxor %xmm0, %xmm0, %xmm0
- xorl %ebx, %ebx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_decrypt_avx2_calc_iv_loop:
- movzbl (%rax,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_avx2_calc_iv_loop
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- L_AES_GCM_decrypt_avx2_calc_iv_done:
- # T = Encrypt counter
- vpxor %xmm0, %xmm0, %xmm0
- shll $3, %edx
- vmovq %rdx, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- # Encrypt counter
- vmovdqu (%rsi), %xmm15
- vpxor %xmm4, %xmm15, %xmm15
- vaesenc 16(%rsi), %xmm15, %xmm15
- vaesenc 32(%rsi), %xmm15, %xmm15
- vaesenc 48(%rsi), %xmm15, %xmm15
- vaesenc 64(%rsi), %xmm15, %xmm15
- vaesenc 80(%rsi), %xmm15, %xmm15
- vaesenc 96(%rsi), %xmm15, %xmm15
- vaesenc 112(%rsi), %xmm15, %xmm15
- vaesenc 128(%rsi), %xmm15, %xmm15
- vaesenc 144(%rsi), %xmm15, %xmm15
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm0
- jl L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last
- vaesenc %xmm0, %xmm15, %xmm15
- vaesenc 176(%rsi), %xmm15, %xmm15
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm0
- jl L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last
- vaesenc %xmm0, %xmm15, %xmm15
- vaesenc 208(%rsi), %xmm15, %xmm15
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last:
- vaesenclast %xmm0, %xmm15, %xmm15
- jmp L_AES_GCM_decrypt_avx2_iv_done
- L_AES_GCM_decrypt_avx2_iv_12:
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- vmovdqu L_avx2_aes_gcm_bswap_one(%rip), %xmm4
- vmovdqu (%rsi), %xmm5
- vpblendd $7, (%rax), %xmm4, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- vmovdqu 16(%rsi), %xmm7
- vpxor %xmm5, %xmm4, %xmm15
- vaesenc %xmm7, %xmm5, %xmm5
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 32(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 48(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 64(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 80(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 96(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 112(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 128(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 144(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm0
- jl L_AES_GCM_decrypt_avx2_calc_iv_12_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 176(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm0
- jl L_AES_GCM_decrypt_avx2_calc_iv_12_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 208(%rsi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm15, %xmm15
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_decrypt_avx2_calc_iv_12_last:
- vaesenclast %xmm0, %xmm5, %xmm5
- vaesenclast %xmm0, %xmm15, %xmm15
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- L_AES_GCM_decrypt_avx2_iv_done:
- # Additional authentication data
- movl %r11d, %edx
- cmpl $0x00, %edx
- je L_AES_GCM_decrypt_avx2_calc_aad_done
- xorl %ecx, %ecx
- cmpl $16, %edx
- jl L_AES_GCM_decrypt_avx2_calc_aad_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_decrypt_avx2_calc_aad_16_loop:
- vmovdqu (%r12,%rcx,1), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm6, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm6
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm6, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm6, %xmm6
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm6, %xmm6
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm6, %xmm6
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm6, %xmm6
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_avx2_calc_aad_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_decrypt_avx2_calc_aad_done
- L_AES_GCM_decrypt_avx2_calc_aad_lt16:
- vpxor %xmm0, %xmm0, %xmm0
- xorl %ebx, %ebx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_decrypt_avx2_calc_aad_loop:
- movzbl (%r12,%rcx,1), %r13d
- movb %r13b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_decrypt_avx2_calc_aad_loop
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm6, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm7
- vpxor %xmm2, %xmm3, %xmm6
- # ghash_mid
- vpsrld $31, %xmm7, %xmm0
- vpsrld $31, %xmm6, %xmm1
- vpslld $0x01, %xmm7, %xmm7
- vpslld $0x01, %xmm6, %xmm6
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm6, %xmm6
- vpor %xmm0, %xmm7, %xmm7
- vpor %xmm1, %xmm6, %xmm6
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm7, %xmm0
- vpshufd $0x4e, %xmm7, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm6, %xmm6
- L_AES_GCM_decrypt_avx2_calc_aad_done:
- # Calculate counter and H
- vpsrlq $63, %xmm5, %xmm1
- vpsllq $0x01, %xmm5, %xmm0
- vpslldq $8, %xmm1, %xmm1
- vpor %xmm1, %xmm0, %xmm0
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
- vpxor %xmm0, %xmm5, %xmm5
- xorl %ebx, %ebx
- cmpl $0x80, %r10d
- movl %r10d, %r13d
- jl L_AES_GCM_decrypt_avx2_done_128
- andl $0xffffff80, %r13d
- vmovdqu %xmm4, 128(%rsp)
- vmovdqu %xmm15, 144(%rsp)
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm3
- # H ^ 1 and H ^ 2
- vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
- vpclmulqdq $16, %xmm3, %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpclmulqdq $16, %xmm3, %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm9, %xmm10, %xmm0
- vmovdqu %xmm5, (%rsp)
- vmovdqu %xmm0, 16(%rsp)
- # H ^ 3 and H ^ 4
- vpclmulqdq $16, %xmm5, %xmm0, %xmm11
- vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
- vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
- vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm2
- vpxor %xmm9, %xmm10, %xmm1
- vmovdqu %xmm1, 32(%rsp)
- vmovdqu %xmm2, 48(%rsp)
- # H ^ 5 and H ^ 6
- vpclmulqdq $16, %xmm0, %xmm1, %xmm11
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
- vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
- vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm0
- vpxor %xmm9, %xmm10, %xmm7
- vmovdqu %xmm7, 64(%rsp)
- vmovdqu %xmm0, 80(%rsp)
- # H ^ 7 and H ^ 8
- vpclmulqdq $16, %xmm1, %xmm2, %xmm11
- vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
- vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
- vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
- vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
- vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm0
- vpxor %xmm9, %xmm10, %xmm7
- vmovdqu %xmm7, 96(%rsp)
- vmovdqu %xmm0, 112(%rsp)
- L_AES_GCM_decrypt_avx2_ghash_128:
- # aesenc_128_ghash
- leaq (%rdi,%rbx,1), %rcx
- leaq (%r8,%rbx,1), %rdx
- # aesenc_ctr
- vmovdqu 128(%rsp), %xmm0
- vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
- vpshufb %xmm1, %xmm15, %xmm15
- # aesenc_xor
- vmovdqu (%rsi), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- # aesenc_pclmul_1
- vmovdqu (%rcx), %xmm1
- vmovdqu 16(%rsi), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vmovdqu 112(%rsp), %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm5
- vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
- vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_2
- vmovdqu 16(%rcx), %xmm1
- vmovdqu 96(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 32(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 32(%rcx), %xmm1
- vmovdqu 80(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 48(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 48(%rcx), %xmm1
- vmovdqu 64(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 64(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 64(%rcx), %xmm1
- vmovdqu 48(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 80(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 80(%rcx), %xmm1
- vmovdqu 32(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 96(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 96(%rcx), %xmm1
- vmovdqu 16(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 112(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 112(%rcx), %xmm1
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 128(%rsi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_l
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm4, %xmm6, %xmm6
- vpxor %xmm3, %xmm5, %xmm5
- vpslldq $8, %xmm5, %xmm1
- vpsrldq $8, %xmm5, %xmm5
- vmovdqu 144(%rsi), %xmm4
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm0
- vaesenc %xmm4, %xmm8, %xmm8
- vpxor %xmm1, %xmm6, %xmm6
- vpxor %xmm5, %xmm7, %xmm7
- vpclmulqdq $16, %xmm0, %xmm6, %xmm3
- vaesenc %xmm4, %xmm9, %xmm9
- vaesenc %xmm4, %xmm10, %xmm10
- vaesenc %xmm4, %xmm11, %xmm11
- vpshufd $0x4e, %xmm6, %xmm6
- vpxor %xmm3, %xmm6, %xmm6
- vpclmulqdq $16, %xmm0, %xmm6, %xmm3
- vaesenc %xmm4, %xmm12, %xmm12
- vaesenc %xmm4, %xmm13, %xmm13
- vaesenc %xmm4, %xmm14, %xmm14
- vpshufd $0x4e, %xmm6, %xmm6
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm7, %xmm6, %xmm6
- vaesenc %xmm4, %xmm15, %xmm15
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm7
- jl L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 176(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm7
- jl L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 208(%rsi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 224(%rsi), %xmm7
- L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done:
- # aesenc_last
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu (%rcx), %xmm0
- vmovdqu 16(%rcx), %xmm1
- vmovdqu 32(%rcx), %xmm2
- vmovdqu 48(%rcx), %xmm3
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm2, %xmm10, %xmm10
- vpxor %xmm3, %xmm11, %xmm11
- vmovdqu %xmm8, (%rdx)
- vmovdqu %xmm9, 16(%rdx)
- vmovdqu %xmm10, 32(%rdx)
- vmovdqu %xmm11, 48(%rdx)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 64(%rcx), %xmm0
- vmovdqu 80(%rcx), %xmm1
- vmovdqu 96(%rcx), %xmm2
- vmovdqu 112(%rcx), %xmm3
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vpxor %xmm2, %xmm14, %xmm14
- vpxor %xmm3, %xmm15, %xmm15
- vmovdqu %xmm12, 64(%rdx)
- vmovdqu %xmm13, 80(%rdx)
- vmovdqu %xmm14, 96(%rdx)
- vmovdqu %xmm15, 112(%rdx)
- # aesenc_128_ghash - end
- addl $0x80, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_decrypt_avx2_ghash_128
- vmovdqu (%rsp), %xmm5
- vmovdqu 128(%rsp), %xmm4
- vmovdqu 144(%rsp), %xmm15
- L_AES_GCM_decrypt_avx2_done_128:
- cmpl %r10d, %ebx
- jge L_AES_GCM_decrypt_avx2_done_dec
- movl %r10d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %ebx
- jge L_AES_GCM_decrypt_avx2_last_block_done
- L_AES_GCM_decrypt_avx2_last_block_start:
- vmovdqu (%rdi,%rbx,1), %xmm11
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm10
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm12
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
- vpxor %xmm6, %xmm12, %xmm12
- # aesenc_gfmul_sb
- vpclmulqdq $0x01, %xmm5, %xmm12, %xmm2
- vpclmulqdq $16, %xmm5, %xmm12, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm12, %xmm1
- vpclmulqdq $0x11, %xmm5, %xmm12, %xmm8
- vpxor (%rsi), %xmm10, %xmm10
- vaesenc 16(%rsi), %xmm10, %xmm10
- vpxor %xmm2, %xmm3, %xmm3
- vpslldq $8, %xmm3, %xmm2
- vpsrldq $8, %xmm3, %xmm3
- vaesenc 32(%rsi), %xmm10, %xmm10
- vpxor %xmm1, %xmm2, %xmm2
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
- vaesenc 48(%rsi), %xmm10, %xmm10
- vaesenc 64(%rsi), %xmm10, %xmm10
- vaesenc 80(%rsi), %xmm10, %xmm10
- vpshufd $0x4e, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
- vaesenc 96(%rsi), %xmm10, %xmm10
- vaesenc 112(%rsi), %xmm10, %xmm10
- vaesenc 128(%rsi), %xmm10, %xmm10
- vpshufd $0x4e, %xmm2, %xmm2
- vaesenc 144(%rsi), %xmm10, %xmm10
- vpxor %xmm3, %xmm8, %xmm8
- vpxor %xmm8, %xmm2, %xmm2
- vmovdqu 160(%rsi), %xmm0
- cmpl $11, %r9d
- jl L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc 176(%rsi), %xmm10, %xmm10
- vmovdqu 192(%rsi), %xmm0
- cmpl $13, %r9d
- jl L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc 208(%rsi), %xmm10, %xmm10
- vmovdqu 224(%rsi), %xmm0
- L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last:
- vaesenclast %xmm0, %xmm10, %xmm10
- vpxor %xmm1, %xmm2, %xmm6
- vpxor %xmm11, %xmm10, %xmm10
- vmovdqu %xmm10, (%r8,%rbx,1)
- addl $16, %ebx
- cmpl %r13d, %ebx
- jl L_AES_GCM_decrypt_avx2_last_block_start
- L_AES_GCM_decrypt_avx2_last_block_done:
- movl %r10d, %ecx
- movl %r10d, %edx
- andl $15, %ecx
- jz L_AES_GCM_decrypt_avx2_done_dec
- # aesenc_last15_dec
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpxor (%rsi), %xmm4, %xmm4
- vaesenc 16(%rsi), %xmm4, %xmm4
- vaesenc 32(%rsi), %xmm4, %xmm4
- vaesenc 48(%rsi), %xmm4, %xmm4
- vaesenc 64(%rsi), %xmm4, %xmm4
- vaesenc 80(%rsi), %xmm4, %xmm4
- vaesenc 96(%rsi), %xmm4, %xmm4
- vaesenc 112(%rsi), %xmm4, %xmm4
- vaesenc 128(%rsi), %xmm4, %xmm4
- vaesenc 144(%rsi), %xmm4, %xmm4
- cmpl $11, %r9d
- vmovdqu 160(%rsi), %xmm1
- jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last
- vaesenc %xmm1, %xmm4, %xmm4
- vaesenc 176(%rsi), %xmm4, %xmm4
- cmpl $13, %r9d
- vmovdqu 192(%rsi), %xmm1
- jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last
- vaesenc %xmm1, %xmm4, %xmm4
- vaesenc 208(%rsi), %xmm4, %xmm4
- vmovdqu 224(%rsi), %xmm1
- L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last:
- vaesenclast %xmm1, %xmm4, %xmm4
- xorl %ecx, %ecx
- vpxor %xmm0, %xmm0, %xmm0
- vmovdqu %xmm4, (%rsp)
- vmovdqu %xmm0, 16(%rsp)
- L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_loop:
- movzbl (%rdi,%rbx,1), %r13d
- movb %r13b, 16(%rsp,%rcx,1)
- xorb (%rsp,%rcx,1), %r13b
- movb %r13b, (%r8,%rbx,1)
- incl %ebx
- incl %ecx
- cmpl %edx, %ebx
- jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_loop
- vmovdqu 16(%rsp), %xmm4
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- vpxor %xmm4, %xmm6, %xmm6
- # ghash_gfmul_red
- vpclmulqdq $16, %xmm5, %xmm6, %xmm2
- vpclmulqdq $0x01, %xmm5, %xmm6, %xmm1
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm2, %xmm6, %xmm6
- vpxor %xmm1, %xmm6, %xmm6
- vpxor %xmm0, %xmm6, %xmm6
- L_AES_GCM_decrypt_avx2_done_dec:
- # calc_tag
- shlq $3, %r10
- shlq $3, %r11
- vmovq %r10, %xmm0
- vmovq %r11, %xmm1
- vpunpcklqdq %xmm1, %xmm0, %xmm0
- vpxor %xmm6, %xmm0, %xmm0
- # ghash_gfmul_red
- vpclmulqdq $16, %xmm5, %xmm0, %xmm4
- vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
- vpxor %xmm3, %xmm4, %xmm4
- vpslldq $8, %xmm4, %xmm3
- vpsrldq $8, %xmm4, %xmm4
- vpxor %xmm2, %xmm3, %xmm3
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
- vpshufd $0x4e, %xmm3, %xmm3
- vpxor %xmm2, %xmm3, %xmm3
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
- vpshufd $0x4e, %xmm3, %xmm3
- vpxor %xmm4, %xmm0, %xmm0
- vpxor %xmm3, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm15, %xmm0, %xmm0
- # cmp_tag
- cmpl $16, %r15d
- je L_AES_GCM_decrypt_avx2_cmp_tag_16
- xorq %rdx, %rdx
- xorq %rax, %rax
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_decrypt_avx2_cmp_tag_loop:
- movzbl (%rsp,%rdx,1), %r13d
- xorb (%r14,%rdx,1), %r13b
- orb %r13b, %al
- incl %edx
- cmpl %r15d, %edx
- jne L_AES_GCM_decrypt_avx2_cmp_tag_loop
- cmpb $0x00, %al
- sete %al
- jmp L_AES_GCM_decrypt_avx2_cmp_tag_done
- L_AES_GCM_decrypt_avx2_cmp_tag_16:
- vmovdqu (%r14), %xmm1
- vpcmpeqb %xmm1, %xmm0, %xmm0
- vpmovmskb %xmm0, %rdx
- # %%edx == 0xFFFF then return 1 else => return 0
- xorl %eax, %eax
- cmpl $0xffff, %edx
- sete %al
- L_AES_GCM_decrypt_avx2_cmp_tag_done:
- movl %eax, (%rbp)
- vzeroupper
- addq $0xa8, %rsp
- popq %rbp
- popq %r15
- popq %rbx
- popq %r14
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_avx2,.-AES_GCM_decrypt_avx2
- #endif /* __APPLE__ */
- #ifdef WOLFSSL_AESGCM_STREAM
- #ifndef __APPLE__
- .text
- .globl AES_GCM_init_avx2
- .type AES_GCM_init_avx2,@function
- .align 16
- AES_GCM_init_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_init_avx2
- .p2align 4
- _AES_GCM_init_avx2:
- #endif /* __APPLE__ */
- pushq %rbx
- pushq %r12
- movq %rdx, %r10
- movl %ecx, %r11d
- movq 24(%rsp), %rax
- subq $16, %rsp
- vpxor %xmm4, %xmm4, %xmm4
- movl %r11d, %edx
- cmpl $12, %edx
- je L_AES_GCM_init_avx2_iv_12
- # Calculate values when IV is not 12 bytes
- # H = Encrypt X(=0)
- vmovdqu (%rdi), %xmm5
- vaesenc 16(%rdi), %xmm5, %xmm5
- vaesenc 32(%rdi), %xmm5, %xmm5
- vaesenc 48(%rdi), %xmm5, %xmm5
- vaesenc 64(%rdi), %xmm5, %xmm5
- vaesenc 80(%rdi), %xmm5, %xmm5
- vaesenc 96(%rdi), %xmm5, %xmm5
- vaesenc 112(%rdi), %xmm5, %xmm5
- vaesenc 128(%rdi), %xmm5, %xmm5
- vaesenc 144(%rdi), %xmm5, %xmm5
- cmpl $11, %esi
- vmovdqu 160(%rdi), %xmm0
- jl L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc 176(%rdi), %xmm5, %xmm5
- cmpl $13, %esi
- vmovdqu 192(%rdi), %xmm0
- jl L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc 208(%rdi), %xmm5, %xmm5
- vmovdqu 224(%rdi), %xmm0
- L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last:
- vaesenclast %xmm0, %xmm5, %xmm5
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- # Calc counter
- # Initialization vector
- cmpl $0x00, %edx
- movq $0x00, %rcx
- je L_AES_GCM_init_avx2_calc_iv_done
- cmpl $16, %edx
- jl L_AES_GCM_init_avx2_calc_iv_lt16
- andl $0xfffffff0, %edx
- L_AES_GCM_init_avx2_calc_iv_16_loop:
- vmovdqu (%r10,%rcx,1), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm6
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm6, %xmm0
- vpshufd $0x4e, %xmm6, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- addl $16, %ecx
- cmpl %edx, %ecx
- jl L_AES_GCM_init_avx2_calc_iv_16_loop
- movl %r11d, %edx
- cmpl %edx, %ecx
- je L_AES_GCM_init_avx2_calc_iv_done
- L_AES_GCM_init_avx2_calc_iv_lt16:
- vpxor %xmm0, %xmm0, %xmm0
- xorl %ebx, %ebx
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_init_avx2_calc_iv_loop:
- movzbl (%r10,%rcx,1), %r12d
- movb %r12b, (%rsp,%rbx,1)
- incl %ecx
- incl %ebx
- cmpl %edx, %ecx
- jl L_AES_GCM_init_avx2_calc_iv_loop
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm6
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm6, %xmm0
- vpshufd $0x4e, %xmm6, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- L_AES_GCM_init_avx2_calc_iv_done:
- # T = Encrypt counter
- vpxor %xmm0, %xmm0, %xmm0
- shll $3, %edx
- vmovq %rdx, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm6
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm6, %xmm0
- vpshufd $0x4e, %xmm6, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
- # Encrypt counter
- vmovdqu (%rdi), %xmm7
- vpxor %xmm4, %xmm7, %xmm7
- vaesenc 16(%rdi), %xmm7, %xmm7
- vaesenc 32(%rdi), %xmm7, %xmm7
- vaesenc 48(%rdi), %xmm7, %xmm7
- vaesenc 64(%rdi), %xmm7, %xmm7
- vaesenc 80(%rdi), %xmm7, %xmm7
- vaesenc 96(%rdi), %xmm7, %xmm7
- vaesenc 112(%rdi), %xmm7, %xmm7
- vaesenc 128(%rdi), %xmm7, %xmm7
- vaesenc 144(%rdi), %xmm7, %xmm7
- cmpl $11, %esi
- vmovdqu 160(%rdi), %xmm0
- jl L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last
- vaesenc %xmm0, %xmm7, %xmm7
- vaesenc 176(%rdi), %xmm7, %xmm7
- cmpl $13, %esi
- vmovdqu 192(%rdi), %xmm0
- jl L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last
- vaesenc %xmm0, %xmm7, %xmm7
- vaesenc 208(%rdi), %xmm7, %xmm7
- vmovdqu 224(%rdi), %xmm0
- L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last:
- vaesenclast %xmm0, %xmm7, %xmm7
- jmp L_AES_GCM_init_avx2_iv_done
- L_AES_GCM_init_avx2_iv_12:
- # # Calculate values when IV is 12 bytes
- # Set counter based on IV
- vmovdqu L_avx2_aes_gcm_bswap_one(%rip), %xmm4
- vmovdqu (%rdi), %xmm5
- vpblendd $7, (%r10), %xmm4, %xmm4
- # H = Encrypt X(=0) and T = Encrypt counter
- vmovdqu 16(%rdi), %xmm6
- vpxor %xmm5, %xmm4, %xmm7
- vaesenc %xmm6, %xmm5, %xmm5
- vaesenc %xmm6, %xmm7, %xmm7
- vmovdqu 32(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 48(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 64(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 80(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 96(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 112(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 128(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 144(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- cmpl $11, %esi
- vmovdqu 160(%rdi), %xmm0
- jl L_AES_GCM_init_avx2_calc_iv_12_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 176(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- cmpl $13, %esi
- vmovdqu 192(%rdi), %xmm0
- jl L_AES_GCM_init_avx2_calc_iv_12_last
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 208(%rdi), %xmm0
- vaesenc %xmm0, %xmm5, %xmm5
- vaesenc %xmm0, %xmm7, %xmm7
- vmovdqu 224(%rdi), %xmm0
- L_AES_GCM_init_avx2_calc_iv_12_last:
- vaesenclast %xmm0, %xmm5, %xmm5
- vaesenclast %xmm0, %xmm7, %xmm7
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
- L_AES_GCM_init_avx2_iv_done:
- vmovdqu %xmm7, (%rax)
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
- vmovdqu %xmm5, (%r8)
- vmovdqu %xmm4, (%r9)
- vzeroupper
- addq $16, %rsp
- popq %r12
- popq %rbx
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_init_avx2,.-AES_GCM_init_avx2
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_aad_update_avx2
- .type AES_GCM_aad_update_avx2,@function
- .align 16
- AES_GCM_aad_update_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_aad_update_avx2
- .p2align 4
- _AES_GCM_aad_update_avx2:
- #endif /* __APPLE__ */
- movq %rcx, %rax
- vmovdqu (%rdx), %xmm4
- vmovdqu (%rax), %xmm5
- xorl %ecx, %ecx
- L_AES_GCM_aad_update_avx2_16_loop:
- vmovdqu (%rdi,%rcx,1), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm6
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm6, %xmm0
- vpshufd $0x4e, %xmm6, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- addl $16, %ecx
- cmpl %esi, %ecx
- jl L_AES_GCM_aad_update_avx2_16_loop
- vmovdqu %xmm4, (%rdx)
- vzeroupper
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_aad_update_avx2,.-AES_GCM_aad_update_avx2
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_block_avx2
- .type AES_GCM_encrypt_block_avx2,@function
- .align 16
- AES_GCM_encrypt_block_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_block_avx2
- .p2align 4
- _AES_GCM_encrypt_block_avx2:
- #endif /* __APPLE__ */
- movq %rdx, %r10
- movq %rcx, %r11
- subq $0x98, %rsp
- vmovdqu (%r8), %xmm3
- # aesenc_block
- vmovdqu %xmm3, %xmm1
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
- vpxor (%rdi), %xmm0, %xmm0
- vmovdqu 16(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 32(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 48(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 64(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 80(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 96(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 112(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 128(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 144(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu %xmm1, %xmm3
- cmpl $11, %esi
- vmovdqu 160(%rdi), %xmm1
- jl L_AES_GCM_encrypt_block_avx2_aesenc_block_last
- vaesenc %xmm1, %xmm0, %xmm0
- vmovdqu 176(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- cmpl $13, %esi
- vmovdqu 192(%rdi), %xmm1
- jl L_AES_GCM_encrypt_block_avx2_aesenc_block_last
- vaesenc %xmm1, %xmm0, %xmm0
- vmovdqu 208(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 224(%rdi), %xmm1
- L_AES_GCM_encrypt_block_avx2_aesenc_block_last:
- vaesenclast %xmm1, %xmm0, %xmm0
- vmovdqu (%r11), %xmm1
- vpxor %xmm1, %xmm0, %xmm0
- vmovdqu %xmm0, (%r10)
- vmovdqu %xmm3, (%r8)
- vzeroupper
- addq $0x98, %rsp
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_block_avx2,.-AES_GCM_encrypt_block_avx2
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_ghash_block_avx2
- .type AES_GCM_ghash_block_avx2,@function
- .align 16
- AES_GCM_ghash_block_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_ghash_block_avx2
- .p2align 4
- _AES_GCM_ghash_block_avx2:
- #endif /* __APPLE__ */
- vmovdqu (%rsi), %xmm4
- vmovdqu (%rdx), %xmm5
- vmovdqu (%rdi), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm4, %xmm4
- # ghash_gfmul_avx
- vpclmulqdq $16, %xmm4, %xmm5, %xmm2
- vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
- vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
- vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpslldq $8, %xmm2, %xmm1
- vpsrldq $8, %xmm2, %xmm2
- vpxor %xmm1, %xmm0, %xmm6
- vpxor %xmm2, %xmm3, %xmm4
- # ghash_mid
- vpsrld $31, %xmm6, %xmm0
- vpsrld $31, %xmm4, %xmm1
- vpslld $0x01, %xmm6, %xmm6
- vpslld $0x01, %xmm4, %xmm4
- vpsrldq $12, %xmm0, %xmm2
- vpslldq $4, %xmm0, %xmm0
- vpslldq $4, %xmm1, %xmm1
- vpor %xmm2, %xmm4, %xmm4
- vpor %xmm0, %xmm6, %xmm6
- vpor %xmm1, %xmm4, %xmm4
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm6, %xmm0
- vpshufd $0x4e, %xmm6, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm4, %xmm4
- vmovdqu %xmm4, (%rsi)
- vzeroupper
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_ghash_block_avx2,.-AES_GCM_ghash_block_avx2
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_update_avx2
- .type AES_GCM_encrypt_update_avx2,@function
- .align 16
- AES_GCM_encrypt_update_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_update_avx2
- .p2align 4
- _AES_GCM_encrypt_update_avx2:
- #endif /* __APPLE__ */
- pushq %r12
- pushq %r13
- pushq %r14
- movq %rdx, %r10
- movq %rcx, %r11
- movq 32(%rsp), %rax
- movq 40(%rsp), %r12
- subq $0x98, %rsp
- vmovdqu (%r9), %xmm6
- vmovdqu (%rax), %xmm5
- vmovdqu (%r12), %xmm4
- vpsrlq $63, %xmm5, %xmm1
- vpsllq $0x01, %xmm5, %xmm0
- vpslldq $8, %xmm1, %xmm1
- vpor %xmm1, %xmm0, %xmm0
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- xorl %r14d, %r14d
- cmpl $0x80, %r8d
- movl %r8d, %r13d
- jl L_AES_GCM_encrypt_update_avx2_done_128
- andl $0xffffff80, %r13d
- vmovdqu %xmm4, 128(%rsp)
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm3
- # H ^ 1 and H ^ 2
- vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
- vpclmulqdq $16, %xmm3, %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpclmulqdq $16, %xmm3, %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm9, %xmm10, %xmm0
- vmovdqu %xmm5, (%rsp)
- vmovdqu %xmm0, 16(%rsp)
- # H ^ 3 and H ^ 4
- vpclmulqdq $16, %xmm5, %xmm0, %xmm11
- vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
- vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
- vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm2
- vpxor %xmm9, %xmm10, %xmm1
- vmovdqu %xmm1, 32(%rsp)
- vmovdqu %xmm2, 48(%rsp)
- # H ^ 5 and H ^ 6
- vpclmulqdq $16, %xmm0, %xmm1, %xmm11
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
- vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
- vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm0
- vpxor %xmm9, %xmm10, %xmm7
- vmovdqu %xmm7, 64(%rsp)
- vmovdqu %xmm0, 80(%rsp)
- # H ^ 7 and H ^ 8
- vpclmulqdq $16, %xmm1, %xmm2, %xmm11
- vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
- vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
- vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
- vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
- vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm0
- vpxor %xmm9, %xmm10, %xmm7
- vmovdqu %xmm7, 96(%rsp)
- vmovdqu %xmm0, 112(%rsp)
- # First 128 bytes of input
- # aesenc_128
- # aesenc_ctr
- vmovdqu 128(%rsp), %xmm0
- vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
- vpshufb %xmm1, %xmm15, %xmm15
- # aesenc_xor
- vmovdqu (%rdi), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- vmovdqu 16(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 32(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 48(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 64(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 80(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 96(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 112(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 128(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 144(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $11, %esi
- vmovdqu 160(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 176(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %esi
- vmovdqu 192(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 208(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 224(%rdi), %xmm7
- L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done:
- # aesenc_last
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu (%r11), %xmm0
- vmovdqu 16(%r11), %xmm1
- vmovdqu 32(%r11), %xmm2
- vmovdqu 48(%r11), %xmm3
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm2, %xmm10, %xmm10
- vpxor %xmm3, %xmm11, %xmm11
- vmovdqu %xmm8, (%r10)
- vmovdqu %xmm9, 16(%r10)
- vmovdqu %xmm10, 32(%r10)
- vmovdqu %xmm11, 48(%r10)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 64(%r11), %xmm0
- vmovdqu 80(%r11), %xmm1
- vmovdqu 96(%r11), %xmm2
- vmovdqu 112(%r11), %xmm3
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vpxor %xmm2, %xmm14, %xmm14
- vpxor %xmm3, %xmm15, %xmm15
- vmovdqu %xmm12, 64(%r10)
- vmovdqu %xmm13, 80(%r10)
- vmovdqu %xmm14, 96(%r10)
- vmovdqu %xmm15, 112(%r10)
- cmpl $0x80, %r13d
- movl $0x80, %r14d
- jle L_AES_GCM_encrypt_update_avx2_end_128
- # More 128 bytes of input
- L_AES_GCM_encrypt_update_avx2_ghash_128:
- # aesenc_128_ghash
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- # aesenc_ctr
- vmovdqu 128(%rsp), %xmm0
- vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
- vpshufb %xmm1, %xmm15, %xmm15
- # aesenc_xor
- vmovdqu (%rdi), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- # aesenc_pclmul_1
- vmovdqu -128(%rdx), %xmm1
- vmovdqu 16(%rdi), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vmovdqu 112(%rsp), %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm5
- vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
- vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_2
- vmovdqu -112(%rdx), %xmm1
- vmovdqu 96(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 32(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -96(%rdx), %xmm1
- vmovdqu 80(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 48(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -80(%rdx), %xmm1
- vmovdqu 64(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 64(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -64(%rdx), %xmm1
- vmovdqu 48(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 80(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -48(%rdx), %xmm1
- vmovdqu 32(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 96(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -32(%rdx), %xmm1
- vmovdqu 16(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 112(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu -16(%rdx), %xmm1
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 128(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_l
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm4, %xmm6, %xmm6
- vpxor %xmm3, %xmm5, %xmm5
- vpslldq $8, %xmm5, %xmm1
- vpsrldq $8, %xmm5, %xmm5
- vmovdqu 144(%rdi), %xmm4
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm0
- vaesenc %xmm4, %xmm8, %xmm8
- vpxor %xmm1, %xmm6, %xmm6
- vpxor %xmm5, %xmm7, %xmm7
- vpclmulqdq $16, %xmm0, %xmm6, %xmm3
- vaesenc %xmm4, %xmm9, %xmm9
- vaesenc %xmm4, %xmm10, %xmm10
- vaesenc %xmm4, %xmm11, %xmm11
- vpshufd $0x4e, %xmm6, %xmm6
- vpxor %xmm3, %xmm6, %xmm6
- vpclmulqdq $16, %xmm0, %xmm6, %xmm3
- vaesenc %xmm4, %xmm12, %xmm12
- vaesenc %xmm4, %xmm13, %xmm13
- vaesenc %xmm4, %xmm14, %xmm14
- vpshufd $0x4e, %xmm6, %xmm6
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm7, %xmm6, %xmm6
- vaesenc %xmm4, %xmm15, %xmm15
- cmpl $11, %esi
- vmovdqu 160(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 176(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %esi
- vmovdqu 192(%rdi), %xmm7
- jl L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 208(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 224(%rdi), %xmm7
- L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done:
- # aesenc_last
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu (%rcx), %xmm0
- vmovdqu 16(%rcx), %xmm1
- vmovdqu 32(%rcx), %xmm2
- vmovdqu 48(%rcx), %xmm3
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm2, %xmm10, %xmm10
- vpxor %xmm3, %xmm11, %xmm11
- vmovdqu %xmm8, (%rdx)
- vmovdqu %xmm9, 16(%rdx)
- vmovdqu %xmm10, 32(%rdx)
- vmovdqu %xmm11, 48(%rdx)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 64(%rcx), %xmm0
- vmovdqu 80(%rcx), %xmm1
- vmovdqu 96(%rcx), %xmm2
- vmovdqu 112(%rcx), %xmm3
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vpxor %xmm2, %xmm14, %xmm14
- vpxor %xmm3, %xmm15, %xmm15
- vmovdqu %xmm12, 64(%rdx)
- vmovdqu %xmm13, 80(%rdx)
- vmovdqu %xmm14, 96(%rdx)
- vmovdqu %xmm15, 112(%rdx)
- # aesenc_128_ghash - end
- addl $0x80, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_encrypt_update_avx2_ghash_128
- L_AES_GCM_encrypt_update_avx2_end_128:
- vmovdqu L_avx2_aes_gcm_bswap_mask(%rip), %xmm4
- vpshufb %xmm4, %xmm8, %xmm8
- vpshufb %xmm4, %xmm9, %xmm9
- vpshufb %xmm4, %xmm10, %xmm10
- vpshufb %xmm4, %xmm11, %xmm11
- vpshufb %xmm4, %xmm12, %xmm12
- vpshufb %xmm4, %xmm13, %xmm13
- vpshufb %xmm4, %xmm14, %xmm14
- vpshufb %xmm4, %xmm15, %xmm15
- vpxor %xmm6, %xmm8, %xmm8
- vmovdqu (%rsp), %xmm7
- vpclmulqdq $16, %xmm15, %xmm7, %xmm5
- vpclmulqdq $0x01, %xmm15, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm15, %xmm7, %xmm4
- vpclmulqdq $0x11, %xmm15, %xmm7, %xmm6
- vpxor %xmm1, %xmm5, %xmm5
- vmovdqu 16(%rsp), %xmm7
- vpclmulqdq $16, %xmm14, %xmm7, %xmm2
- vpclmulqdq $0x01, %xmm14, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm14, %xmm7, %xmm0
- vpclmulqdq $0x11, %xmm14, %xmm7, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vmovdqu 32(%rsp), %xmm15
- vmovdqu 48(%rsp), %xmm7
- vpclmulqdq $16, %xmm13, %xmm15, %xmm2
- vpclmulqdq $0x01, %xmm13, %xmm15, %xmm1
- vpclmulqdq $0x00, %xmm13, %xmm15, %xmm0
- vpclmulqdq $0x11, %xmm13, %xmm15, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vpclmulqdq $16, %xmm12, %xmm7, %xmm2
- vpclmulqdq $0x01, %xmm12, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm12, %xmm7, %xmm0
- vpclmulqdq $0x11, %xmm12, %xmm7, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vmovdqu 64(%rsp), %xmm15
- vmovdqu 80(%rsp), %xmm7
- vpclmulqdq $16, %xmm11, %xmm15, %xmm2
- vpclmulqdq $0x01, %xmm11, %xmm15, %xmm1
- vpclmulqdq $0x00, %xmm11, %xmm15, %xmm0
- vpclmulqdq $0x11, %xmm11, %xmm15, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vpclmulqdq $16, %xmm10, %xmm7, %xmm2
- vpclmulqdq $0x01, %xmm10, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm10, %xmm7, %xmm0
- vpclmulqdq $0x11, %xmm10, %xmm7, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vmovdqu 96(%rsp), %xmm15
- vmovdqu 112(%rsp), %xmm7
- vpclmulqdq $16, %xmm9, %xmm15, %xmm2
- vpclmulqdq $0x01, %xmm9, %xmm15, %xmm1
- vpclmulqdq $0x00, %xmm9, %xmm15, %xmm0
- vpclmulqdq $0x11, %xmm9, %xmm15, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vpclmulqdq $16, %xmm8, %xmm7, %xmm2
- vpclmulqdq $0x01, %xmm8, %xmm7, %xmm1
- vpclmulqdq $0x00, %xmm8, %xmm7, %xmm0
- vpclmulqdq $0x11, %xmm8, %xmm7, %xmm3
- vpxor %xmm1, %xmm2, %xmm2
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm0, %xmm4, %xmm4
- vpslldq $8, %xmm5, %xmm7
- vpsrldq $8, %xmm5, %xmm5
- vpxor %xmm7, %xmm4, %xmm4
- vpxor %xmm5, %xmm6, %xmm6
- # ghash_red
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
- vpclmulqdq $16, %xmm2, %xmm4, %xmm0
- vpshufd $0x4e, %xmm4, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm0
- vpshufd $0x4e, %xmm1, %xmm1
- vpxor %xmm0, %xmm1, %xmm1
- vpxor %xmm1, %xmm6, %xmm6
- vmovdqu (%rsp), %xmm5
- vmovdqu 128(%rsp), %xmm4
- L_AES_GCM_encrypt_update_avx2_done_128:
- cmpl %r8d, %r14d
- je L_AES_GCM_encrypt_update_avx2_done_enc
- movl %r8d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %r14d
- jge L_AES_GCM_encrypt_update_avx2_last_block_done
- # aesenc_block
- vmovdqu %xmm4, %xmm1
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
- vpxor (%rdi), %xmm0, %xmm0
- vmovdqu 16(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 32(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 48(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 64(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 80(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 96(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 112(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 128(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 144(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu %xmm1, %xmm4
- cmpl $11, %esi
- vmovdqu 160(%rdi), %xmm1
- jl L_AES_GCM_encrypt_update_avx2_aesenc_block_last
- vaesenc %xmm1, %xmm0, %xmm0
- vmovdqu 176(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- cmpl $13, %esi
- vmovdqu 192(%rdi), %xmm1
- jl L_AES_GCM_encrypt_update_avx2_aesenc_block_last
- vaesenc %xmm1, %xmm0, %xmm0
- vmovdqu 208(%rdi), %xmm2
- vaesenc %xmm2, %xmm0, %xmm0
- vmovdqu 224(%rdi), %xmm1
- L_AES_GCM_encrypt_update_avx2_aesenc_block_last:
- vaesenclast %xmm1, %xmm0, %xmm0
- vmovdqu (%r11,%r14,1), %xmm1
- vpxor %xmm1, %xmm0, %xmm0
- vmovdqu %xmm0, (%r10,%r14,1)
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm0, %xmm6, %xmm6
- addl $16, %r14d
- cmpl %r13d, %r14d
- jge L_AES_GCM_encrypt_update_avx2_last_block_ghash
- L_AES_GCM_encrypt_update_avx2_last_block_start:
- vmovdqu (%r11,%r14,1), %xmm12
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm11
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
- # aesenc_gfmul_sb
- vpclmulqdq $0x01, %xmm5, %xmm6, %xmm2
- vpclmulqdq $16, %xmm5, %xmm6, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm1
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm8
- vpxor (%rdi), %xmm11, %xmm11
- vaesenc 16(%rdi), %xmm11, %xmm11
- vpxor %xmm2, %xmm3, %xmm3
- vpslldq $8, %xmm3, %xmm2
- vpsrldq $8, %xmm3, %xmm3
- vaesenc 32(%rdi), %xmm11, %xmm11
- vpxor %xmm1, %xmm2, %xmm2
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
- vaesenc 48(%rdi), %xmm11, %xmm11
- vaesenc 64(%rdi), %xmm11, %xmm11
- vaesenc 80(%rdi), %xmm11, %xmm11
- vpshufd $0x4e, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
- vaesenc 96(%rdi), %xmm11, %xmm11
- vaesenc 112(%rdi), %xmm11, %xmm11
- vaesenc 128(%rdi), %xmm11, %xmm11
- vpshufd $0x4e, %xmm2, %xmm2
- vaesenc 144(%rdi), %xmm11, %xmm11
- vpxor %xmm3, %xmm8, %xmm8
- vpxor %xmm8, %xmm2, %xmm2
- vmovdqu 160(%rdi), %xmm0
- cmpl $11, %esi
- jl L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc 176(%rdi), %xmm11, %xmm11
- vmovdqu 192(%rdi), %xmm0
- cmpl $13, %esi
- jl L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc 208(%rdi), %xmm11, %xmm11
- vmovdqu 224(%rdi), %xmm0
- L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last:
- vaesenclast %xmm0, %xmm11, %xmm11
- vpxor %xmm1, %xmm2, %xmm6
- vpxor %xmm12, %xmm11, %xmm11
- vmovdqu %xmm11, (%r10,%r14,1)
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm11
- vpxor %xmm11, %xmm6, %xmm6
- addl $16, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_encrypt_update_avx2_last_block_start
- L_AES_GCM_encrypt_update_avx2_last_block_ghash:
- # ghash_gfmul_red
- vpclmulqdq $16, %xmm5, %xmm6, %xmm10
- vpclmulqdq $0x01, %xmm5, %xmm6, %xmm9
- vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
- vpxor %xmm9, %xmm10, %xmm10
- vpslldq $8, %xmm10, %xmm9
- vpsrldq $8, %xmm10, %xmm10
- vpxor %xmm8, %xmm9, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm10, %xmm6, %xmm6
- vpxor %xmm9, %xmm6, %xmm6
- vpxor %xmm8, %xmm6, %xmm6
- L_AES_GCM_encrypt_update_avx2_last_block_done:
- L_AES_GCM_encrypt_update_avx2_done_enc:
- vmovdqu %xmm6, (%r9)
- vmovdqu %xmm4, (%r12)
- vzeroupper
- addq $0x98, %rsp
- popq %r14
- popq %r13
- popq %r12
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_update_avx2,.-AES_GCM_encrypt_update_avx2
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_encrypt_final_avx2
- .type AES_GCM_encrypt_final_avx2,@function
- .align 16
- AES_GCM_encrypt_final_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_encrypt_final_avx2
- .p2align 4
- _AES_GCM_encrypt_final_avx2:
- #endif /* __APPLE__ */
- movq 8(%rsp), %rax
- subq $16, %rsp
- vmovdqu (%rdi), %xmm4
- vmovdqu (%r9), %xmm5
- vmovdqu (%rax), %xmm6
- vpsrlq $63, %xmm5, %xmm1
- vpsllq $0x01, %xmm5, %xmm0
- vpslldq $8, %xmm1, %xmm1
- vpor %xmm1, %xmm0, %xmm0
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- # calc_tag
- shlq $3, %rcx
- shlq $3, %r8
- vmovq %rcx, %xmm0
- vmovq %r8, %xmm1
- vpunpcklqdq %xmm1, %xmm0, %xmm0
- vpxor %xmm4, %xmm0, %xmm0
- # ghash_gfmul_red
- vpclmulqdq $16, %xmm5, %xmm0, %xmm7
- vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
- vpxor %xmm3, %xmm7, %xmm7
- vpslldq $8, %xmm7, %xmm3
- vpsrldq $8, %xmm7, %xmm7
- vpxor %xmm2, %xmm3, %xmm3
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
- vpshufd $0x4e, %xmm3, %xmm3
- vpxor %xmm2, %xmm3, %xmm3
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
- vpshufd $0x4e, %xmm3, %xmm3
- vpxor %xmm7, %xmm0, %xmm0
- vpxor %xmm3, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm6, %xmm0, %xmm0
- # store_tag
- cmpl $16, %edx
- je L_AES_GCM_encrypt_final_avx2_store_tag_16
- xorq %r10, %r10
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_encrypt_final_avx2_store_tag_loop:
- movzbl (%rsp,%r10,1), %r11d
- movb %r11b, (%rsi,%r10,1)
- incl %r10d
- cmpl %edx, %r10d
- jne L_AES_GCM_encrypt_final_avx2_store_tag_loop
- jmp L_AES_GCM_encrypt_final_avx2_store_tag_done
- L_AES_GCM_encrypt_final_avx2_store_tag_16:
- vmovdqu %xmm0, (%rsi)
- L_AES_GCM_encrypt_final_avx2_store_tag_done:
- vzeroupper
- addq $16, %rsp
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_encrypt_final_avx2,.-AES_GCM_encrypt_final_avx2
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_update_avx2
- .type AES_GCM_decrypt_update_avx2,@function
- .align 16
- AES_GCM_decrypt_update_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_update_avx2
- .p2align 4
- _AES_GCM_decrypt_update_avx2:
- #endif /* __APPLE__ */
- pushq %r13
- pushq %r12
- pushq %r14
- movq %rdx, %r10
- movq %rcx, %r11
- movq 32(%rsp), %rax
- movq 40(%rsp), %r12
- subq $0xa8, %rsp
- vmovdqu (%r9), %xmm6
- vmovdqu (%rax), %xmm5
- vmovdqu (%r12), %xmm4
- # Calculate H
- vpsrlq $63, %xmm5, %xmm1
- vpsllq $0x01, %xmm5, %xmm0
- vpslldq $8, %xmm1, %xmm1
- vpor %xmm1, %xmm0, %xmm0
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- xorl %r14d, %r14d
- cmpl $0x80, %r8d
- movl %r8d, %r13d
- jl L_AES_GCM_decrypt_update_avx2_done_128
- andl $0xffffff80, %r13d
- vmovdqu %xmm4, 128(%rsp)
- vmovdqu %xmm15, 144(%rsp)
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm3
- # H ^ 1 and H ^ 2
- vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
- vpclmulqdq $16, %xmm3, %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpclmulqdq $16, %xmm3, %xmm9, %xmm8
- vpshufd $0x4e, %xmm9, %xmm9
- vpxor %xmm8, %xmm9, %xmm9
- vpxor %xmm9, %xmm10, %xmm0
- vmovdqu %xmm5, (%rsp)
- vmovdqu %xmm0, 16(%rsp)
- # H ^ 3 and H ^ 4
- vpclmulqdq $16, %xmm5, %xmm0, %xmm11
- vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
- vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
- vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm2
- vpxor %xmm9, %xmm10, %xmm1
- vmovdqu %xmm1, 32(%rsp)
- vmovdqu %xmm2, 48(%rsp)
- # H ^ 5 and H ^ 6
- vpclmulqdq $16, %xmm0, %xmm1, %xmm11
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
- vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
- vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm0
- vpxor %xmm9, %xmm10, %xmm7
- vmovdqu %xmm7, 64(%rsp)
- vmovdqu %xmm0, 80(%rsp)
- # H ^ 7 and H ^ 8
- vpclmulqdq $16, %xmm1, %xmm2, %xmm11
- vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
- vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
- vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
- vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
- vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
- vpxor %xmm10, %xmm11, %xmm11
- vpslldq $8, %xmm11, %xmm10
- vpsrldq $8, %xmm11, %xmm11
- vpxor %xmm9, %xmm10, %xmm10
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm9, %xmm10, %xmm10
- vpxor %xmm8, %xmm13, %xmm13
- vpclmulqdq $16, %xmm3, %xmm10, %xmm9
- vpclmulqdq $16, %xmm3, %xmm13, %xmm8
- vpshufd $0x4e, %xmm10, %xmm10
- vpshufd $0x4e, %xmm13, %xmm13
- vpxor %xmm11, %xmm12, %xmm12
- vpxor %xmm8, %xmm13, %xmm13
- vpxor %xmm12, %xmm10, %xmm10
- vpxor %xmm14, %xmm13, %xmm0
- vpxor %xmm9, %xmm10, %xmm7
- vmovdqu %xmm7, 96(%rsp)
- vmovdqu %xmm0, 112(%rsp)
- L_AES_GCM_decrypt_update_avx2_ghash_128:
- # aesenc_128_ghash
- leaq (%r11,%r14,1), %rcx
- leaq (%r10,%r14,1), %rdx
- # aesenc_ctr
- vmovdqu 128(%rsp), %xmm0
- vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
- vpshufb %xmm1, %xmm0, %xmm8
- vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
- vpshufb %xmm1, %xmm9, %xmm9
- vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
- vpshufb %xmm1, %xmm10, %xmm10
- vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
- vpshufb %xmm1, %xmm11, %xmm11
- vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
- vpshufb %xmm1, %xmm12, %xmm12
- vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
- vpshufb %xmm1, %xmm13, %xmm13
- vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
- vpshufb %xmm1, %xmm14, %xmm14
- vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
- vpshufb %xmm1, %xmm15, %xmm15
- # aesenc_xor
- vmovdqu (%rdi), %xmm7
- vmovdqu %xmm0, 128(%rsp)
- vpxor %xmm7, %xmm8, %xmm8
- vpxor %xmm7, %xmm9, %xmm9
- vpxor %xmm7, %xmm10, %xmm10
- vpxor %xmm7, %xmm11, %xmm11
- vpxor %xmm7, %xmm12, %xmm12
- vpxor %xmm7, %xmm13, %xmm13
- vpxor %xmm7, %xmm14, %xmm14
- vpxor %xmm7, %xmm15, %xmm15
- # aesenc_pclmul_1
- vmovdqu (%rcx), %xmm1
- vmovdqu 16(%rdi), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vmovdqu 112(%rsp), %xmm2
- vpxor %xmm6, %xmm1, %xmm1
- vpclmulqdq $16, %xmm2, %xmm1, %xmm5
- vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
- vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
- vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_2
- vmovdqu 16(%rcx), %xmm1
- vmovdqu 96(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 32(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 32(%rcx), %xmm1
- vmovdqu 80(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 48(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 48(%rcx), %xmm1
- vmovdqu 64(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 64(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 64(%rcx), %xmm1
- vmovdqu 48(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 80(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 80(%rcx), %xmm1
- vmovdqu 32(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 96(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 96(%rcx), %xmm1
- vmovdqu 16(%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 112(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_n
- vmovdqu 112(%rcx), %xmm1
- vmovdqu (%rsp), %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
- vpxor %xmm2, %xmm5, %xmm5
- vpclmulqdq $16, %xmm0, %xmm1, %xmm2
- vpxor %xmm3, %xmm5, %xmm5
- vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
- vpxor %xmm4, %xmm6, %xmm6
- vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
- vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
- vmovdqu 128(%rdi), %xmm0
- vpxor %xmm1, %xmm7, %xmm7
- vaesenc %xmm0, %xmm8, %xmm8
- vaesenc %xmm0, %xmm9, %xmm9
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc %xmm0, %xmm11, %xmm11
- vaesenc %xmm0, %xmm12, %xmm12
- vaesenc %xmm0, %xmm13, %xmm13
- vaesenc %xmm0, %xmm14, %xmm14
- vaesenc %xmm0, %xmm15, %xmm15
- # aesenc_pclmul_l
- vpxor %xmm2, %xmm5, %xmm5
- vpxor %xmm4, %xmm6, %xmm6
- vpxor %xmm3, %xmm5, %xmm5
- vpslldq $8, %xmm5, %xmm1
- vpsrldq $8, %xmm5, %xmm5
- vmovdqu 144(%rdi), %xmm4
- vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm0
- vaesenc %xmm4, %xmm8, %xmm8
- vpxor %xmm1, %xmm6, %xmm6
- vpxor %xmm5, %xmm7, %xmm7
- vpclmulqdq $16, %xmm0, %xmm6, %xmm3
- vaesenc %xmm4, %xmm9, %xmm9
- vaesenc %xmm4, %xmm10, %xmm10
- vaesenc %xmm4, %xmm11, %xmm11
- vpshufd $0x4e, %xmm6, %xmm6
- vpxor %xmm3, %xmm6, %xmm6
- vpclmulqdq $16, %xmm0, %xmm6, %xmm3
- vaesenc %xmm4, %xmm12, %xmm12
- vaesenc %xmm4, %xmm13, %xmm13
- vaesenc %xmm4, %xmm14, %xmm14
- vpshufd $0x4e, %xmm6, %xmm6
- vpxor %xmm3, %xmm6, %xmm6
- vpxor %xmm7, %xmm6, %xmm6
- vaesenc %xmm4, %xmm15, %xmm15
- cmpl $11, %esi
- vmovdqu 160(%rdi), %xmm7
- jl L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 176(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- cmpl $13, %esi
- vmovdqu 192(%rdi), %xmm7
- jl L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 208(%rdi), %xmm7
- vaesenc %xmm7, %xmm8, %xmm8
- vaesenc %xmm7, %xmm9, %xmm9
- vaesenc %xmm7, %xmm10, %xmm10
- vaesenc %xmm7, %xmm11, %xmm11
- vaesenc %xmm7, %xmm12, %xmm12
- vaesenc %xmm7, %xmm13, %xmm13
- vaesenc %xmm7, %xmm14, %xmm14
- vaesenc %xmm7, %xmm15, %xmm15
- vmovdqu 224(%rdi), %xmm7
- L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done:
- # aesenc_last
- vaesenclast %xmm7, %xmm8, %xmm8
- vaesenclast %xmm7, %xmm9, %xmm9
- vaesenclast %xmm7, %xmm10, %xmm10
- vaesenclast %xmm7, %xmm11, %xmm11
- vmovdqu (%rcx), %xmm0
- vmovdqu 16(%rcx), %xmm1
- vmovdqu 32(%rcx), %xmm2
- vmovdqu 48(%rcx), %xmm3
- vpxor %xmm0, %xmm8, %xmm8
- vpxor %xmm1, %xmm9, %xmm9
- vpxor %xmm2, %xmm10, %xmm10
- vpxor %xmm3, %xmm11, %xmm11
- vmovdqu %xmm8, (%rdx)
- vmovdqu %xmm9, 16(%rdx)
- vmovdqu %xmm10, 32(%rdx)
- vmovdqu %xmm11, 48(%rdx)
- vaesenclast %xmm7, %xmm12, %xmm12
- vaesenclast %xmm7, %xmm13, %xmm13
- vaesenclast %xmm7, %xmm14, %xmm14
- vaesenclast %xmm7, %xmm15, %xmm15
- vmovdqu 64(%rcx), %xmm0
- vmovdqu 80(%rcx), %xmm1
- vmovdqu 96(%rcx), %xmm2
- vmovdqu 112(%rcx), %xmm3
- vpxor %xmm0, %xmm12, %xmm12
- vpxor %xmm1, %xmm13, %xmm13
- vpxor %xmm2, %xmm14, %xmm14
- vpxor %xmm3, %xmm15, %xmm15
- vmovdqu %xmm12, 64(%rdx)
- vmovdqu %xmm13, 80(%rdx)
- vmovdqu %xmm14, 96(%rdx)
- vmovdqu %xmm15, 112(%rdx)
- # aesenc_128_ghash - end
- addl $0x80, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_decrypt_update_avx2_ghash_128
- vmovdqu (%rsp), %xmm5
- vmovdqu 128(%rsp), %xmm4
- vmovdqu 144(%rsp), %xmm15
- L_AES_GCM_decrypt_update_avx2_done_128:
- cmpl %r8d, %r14d
- jge L_AES_GCM_decrypt_update_avx2_done_dec
- movl %r8d, %r13d
- andl $0xfffffff0, %r13d
- cmpl %r13d, %r14d
- jge L_AES_GCM_decrypt_update_avx2_last_block_done
- L_AES_GCM_decrypt_update_avx2_last_block_start:
- vmovdqu (%r11,%r14,1), %xmm11
- vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm10
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm12
- vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
- vpxor %xmm6, %xmm12, %xmm12
- # aesenc_gfmul_sb
- vpclmulqdq $0x01, %xmm5, %xmm12, %xmm2
- vpclmulqdq $16, %xmm5, %xmm12, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm12, %xmm1
- vpclmulqdq $0x11, %xmm5, %xmm12, %xmm8
- vpxor (%rdi), %xmm10, %xmm10
- vaesenc 16(%rdi), %xmm10, %xmm10
- vpxor %xmm2, %xmm3, %xmm3
- vpslldq $8, %xmm3, %xmm2
- vpsrldq $8, %xmm3, %xmm3
- vaesenc 32(%rdi), %xmm10, %xmm10
- vpxor %xmm1, %xmm2, %xmm2
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
- vaesenc 48(%rdi), %xmm10, %xmm10
- vaesenc 64(%rdi), %xmm10, %xmm10
- vaesenc 80(%rdi), %xmm10, %xmm10
- vpshufd $0x4e, %xmm2, %xmm2
- vpxor %xmm1, %xmm2, %xmm2
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
- vaesenc 96(%rdi), %xmm10, %xmm10
- vaesenc 112(%rdi), %xmm10, %xmm10
- vaesenc 128(%rdi), %xmm10, %xmm10
- vpshufd $0x4e, %xmm2, %xmm2
- vaesenc 144(%rdi), %xmm10, %xmm10
- vpxor %xmm3, %xmm8, %xmm8
- vpxor %xmm8, %xmm2, %xmm2
- vmovdqu 160(%rdi), %xmm0
- cmpl $11, %esi
- jl L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc 176(%rdi), %xmm10, %xmm10
- vmovdqu 192(%rdi), %xmm0
- cmpl $13, %esi
- jl L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last
- vaesenc %xmm0, %xmm10, %xmm10
- vaesenc 208(%rdi), %xmm10, %xmm10
- vmovdqu 224(%rdi), %xmm0
- L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last:
- vaesenclast %xmm0, %xmm10, %xmm10
- vpxor %xmm1, %xmm2, %xmm6
- vpxor %xmm11, %xmm10, %xmm10
- vmovdqu %xmm10, (%r10,%r14,1)
- addl $16, %r14d
- cmpl %r13d, %r14d
- jl L_AES_GCM_decrypt_update_avx2_last_block_start
- L_AES_GCM_decrypt_update_avx2_last_block_done:
- L_AES_GCM_decrypt_update_avx2_done_dec:
- vmovdqu %xmm6, (%r9)
- vmovdqu %xmm4, (%r12)
- vzeroupper
- addq $0xa8, %rsp
- popq %r14
- popq %r12
- popq %r13
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_update_avx2,.-AES_GCM_decrypt_update_avx2
- #endif /* __APPLE__ */
- #ifndef __APPLE__
- .text
- .globl AES_GCM_decrypt_final_avx2
- .type AES_GCM_decrypt_final_avx2,@function
- .align 16
- AES_GCM_decrypt_final_avx2:
- #else
- .section __TEXT,__text
- .globl _AES_GCM_decrypt_final_avx2
- .p2align 4
- _AES_GCM_decrypt_final_avx2:
- #endif /* __APPLE__ */
- pushq %r12
- movq 16(%rsp), %rax
- movq 24(%rsp), %r10
- subq $16, %rsp
- vmovdqu (%rdi), %xmm4
- vmovdqu (%r9), %xmm5
- vmovdqu (%rax), %xmm6
- vpsrlq $63, %xmm5, %xmm1
- vpsllq $0x01, %xmm5, %xmm0
- vpslldq $8, %xmm1, %xmm1
- vpor %xmm1, %xmm0, %xmm0
- vpshufd $0xff, %xmm5, %xmm5
- vpsrad $31, %xmm5, %xmm5
- vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
- vpxor %xmm0, %xmm5, %xmm5
- # calc_tag
- shlq $3, %rcx
- shlq $3, %r8
- vmovq %rcx, %xmm0
- vmovq %r8, %xmm1
- vpunpcklqdq %xmm1, %xmm0, %xmm0
- vpxor %xmm4, %xmm0, %xmm0
- # ghash_gfmul_red
- vpclmulqdq $16, %xmm5, %xmm0, %xmm7
- vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
- vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
- vpxor %xmm3, %xmm7, %xmm7
- vpslldq $8, %xmm7, %xmm3
- vpsrldq $8, %xmm7, %xmm7
- vpxor %xmm2, %xmm3, %xmm3
- vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
- vpshufd $0x4e, %xmm3, %xmm3
- vpxor %xmm2, %xmm3, %xmm3
- vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
- vpshufd $0x4e, %xmm3, %xmm3
- vpxor %xmm7, %xmm0, %xmm0
- vpxor %xmm3, %xmm0, %xmm0
- vpxor %xmm2, %xmm0, %xmm0
- vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
- vpxor %xmm6, %xmm0, %xmm0
- # cmp_tag
- cmpl $16, %edx
- je L_AES_GCM_decrypt_final_avx2_cmp_tag_16
- xorq %r11, %r11
- xorq %r9, %r9
- vmovdqu %xmm0, (%rsp)
- L_AES_GCM_decrypt_final_avx2_cmp_tag_loop:
- movzbl (%rsp,%r11,1), %r12d
- xorb (%rsi,%r11,1), %r12b
- orb %r12b, %r9b
- incl %r11d
- cmpl %edx, %r11d
- jne L_AES_GCM_decrypt_final_avx2_cmp_tag_loop
- cmpb $0x00, %r9b
- sete %r9b
- jmp L_AES_GCM_decrypt_final_avx2_cmp_tag_done
- L_AES_GCM_decrypt_final_avx2_cmp_tag_16:
- vmovdqu (%rsi), %xmm1
- vpcmpeqb %xmm1, %xmm0, %xmm0
- vpmovmskb %xmm0, %r11
- # %%edx == 0xFFFF then return 1 else => return 0
- xorl %r9d, %r9d
- cmpl $0xffff, %r11d
- sete %r9b
- L_AES_GCM_decrypt_final_avx2_cmp_tag_done:
- movl %r9d, (%r10)
- vzeroupper
- addq $16, %rsp
- popq %r12
- repz retq
- #ifndef __APPLE__
- .size AES_GCM_decrypt_final_avx2,.-AES_GCM_decrypt_final_avx2
- #endif /* __APPLE__ */
- #endif /* WOLFSSL_AESGCM_STREAM */
- #endif /* HAVE_INTEL_AVX2 */
- #endif /* WOLFSSL_X86_64_BUILD */
- #if defined(__linux__) && defined(__ELF__)
- .section .note.GNU-stack,"",%progbits
- #endif
|