Searched refs:d22 (Results 1 - 25 of 37) sorted by relevance

12

/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.s464 veor d29,d21,d22
468 veor d29,d22 @ Ch(e,f,g)
500 vadd.i64 d27,d28,d22
517 veor d22,d24,d25
519 veor d22,d26 @ Sigma0(a)
521 vadd.i64 d22,d27
523 vadd.i64 d22,d30
544 vshr.u64 d24,d22,#28
546 vshr.u64 d25,d22,#34
547 vshr.u64 d26,d22,#3
[all...]
/external/libvpx/vp8/encoder/arm/neon/
H A Dvp8_mse16x16_neon.asm49 vmlal.s16 q7, d22, d22
103 vmlal.s16 q9, d22, d22
156 vmull.s16 q7, d22, d22
H A Dvariance_neon.asm50 vmlal.s16 q9, d22, d22 ;calculate sse
120 vmlal.s16 q9, d22, d22 ;calculate sse
181 vmlal.s16 q9, d22, d22 ;calculate sse
240 vmlal.s16 q9, d22, d22 ;calculate sse
H A Dshortfdct_neon.asm55 vrshrn.i32 d22, q11, #14
61 vmull.s16 q4, d22, d4[0] ;i=0
62 vmull.s16 q5, d22, d4[1] ;i=1
63 vmull.s16 q6, d22, d4[2] ;i=2
64 vmull.s16 q7, d22, d4[3] ;i=3
H A Dvp8_subpixelvariance8x8_neon.asm65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8
113 vmull.u8 q1, d22, d0 ;(src_ptr[0] * Filter[0])
131 vqrshrn.u16 d22, q1, #7 ;shift/round/saturate to u8
144 vld1.u8 {d22}, [r0], r1 ;load src data
170 vsubl.u8 q4, d22, d0 ;calculate diff
H A Dvp8_subpixelvariance16x16_neon.asm183 vld1.u8 {d22, d23}, [lr]! ;load src data
191 vmull.u8 q1, d22, d0 ;(src_ptr[0] * Filter[0])
310 vld1.u8 {d22, d23}, [r0], r1 ;load src data
318 vmull.u8 q1, d22, d0 ;(src_ptr[0] * Filter[0])
382 vmlal.s16 q9, d22, d22 ;sse
H A Dvp8_subpixelvariance16x16s_neon.asm66 vsubl.u8 q4, d0, d22 ;diff
169 vmlal.s16 q9, d22, d22 ;sse
292 vmlal.s16 q14, d22, d22 ;sse
425 vld1.u8 {d20, d21, d22, d23}, [r0], r1
524 vmlal.s16 q9, d22, d22 ;sse
H A Dfastfdct8x4_neon.asm54 vadd.s16 d22, d3, d9
117 vadd.s16 d22, d2, d4
137 vadd.s16 d6, d22, d26 ;a2 = ((temp1 * x_c2 )>>16) + temp1
/external/llvm/test/MC/ARM/
H A Dneon-vld-encoding.s175 vld3.p16 {d20, d22, d24}, [r5]!
195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4]
204 vld4.32 {d16, d18, d20, d22}, [r8]
211 vld4.u32 {d16, d18, d20, d22}, [r8]!
216 vld4.i8 {d16, d18, d20, d22}, [r4, :256], r2
217 vld4.i16 {d16, d18, d20, d22}, [r6], r3
225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4]
231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4]
235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4, :256], r2 @ encoding: [0x32,0x01,0x64,0xf4]
236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r
[all...]
H A Dneont2-vld-encoding.s61 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0, :256]! @ encoding: [0x3d,0x01,0x60,0xf9]
62 vld4.8 {d16, d18, d20, d22}, [r0, :256]!
65 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf9]
66 vld4.16 {d16, d18, d20, d22}, [r0]!
69 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf9]
70 vld4.32 {d16, d18, d20, d22}, [r0]!
109 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf9]
110 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64]
H A Dneon-vst-encoding.s79 vst3.p16 {d20, d22, d24}, [r5]!
98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4]
107 vst4.32 {d16, d18, d20, d22}, [r8]
114 vst4.u32 {d16, d18, d20, d22}, [r8]!
119 vst4.i8 {d16, d18, d20, d22}, [r4, :256], r2
120 vst4.i16 {d16, d18, d20, d22}, [r6], r3
128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4]
134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4]
138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4, :256], r2 @ encoding: [0x32,0x01,0x44,0xf4]
139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r
[all...]
H A Dneont2-pairwise-encoding.s75 vpmin.f32 d22, d23, d16
83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f]
88 vpmax.s32 d5, d22, d15
96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
H A Dneont2-vst-encoding.s59 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r0, :256]! @ encoding: [0x3d,0x01,0x40,0xf9]
60 vst4.8 {d16, d18, d20, d22}, [r0, :256]!
63 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x40,0xf9]
64 vst4.16 {d16, d18, d20, d22}, [r0]!
67 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x40,0xf9]
68 vst4.32 {d16, d18, d20, d22}, [r0]!
H A Dneon-shiftaccum-encoding.s76 vrsra.u8 d15, d22, #8
94 vrsra.u8 d22, #8
111 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x36,0xf3,0x88,0xf3]
128 @ CHECK: vrsra.u8 d22, d22, #8 @ encoding: [0x36,0x63,0xc8,0xf3]
H A Dneont2-shiftaccum-encoding.s79 vrsra.u8 d15, d22, #8
97 vrsra.u8 d22, #8
114 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x88,0xff,0x36,0xf3]
131 @ CHECK: vrsra.u8 d22, d22, #8 @ encoding: [0xc8,0xff,0x36,0x63]
H A Dneon-sub-encoding.s15 vsub.i16 d14, d22
37 @ CHECK: vsub.i16 d14, d14, d22 @ encoding: [0x26,0xe8,0x1e,0xf3]
138 vhsub.s32 d13, d22
151 @ CHECK: vhsub.s32 d13, d13, d22 @ encoding: [0x26,0xd2,0x2d,0xf2]
/external/libvpx/vp8/common/arm/neon/
H A Dbilinearpredict8x4_neon.asm65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8
85 vmull.u8 q1, d22, d0 ;(src_ptr[0] * vp8_filter[0])
111 vld1.u8 {d22}, [r0], r1 ;load src data
121 vst1.u8 {d22}, [r4], lr ;store result
H A Dsixtappredict16x16_neon.asm225 vld1.u8 {d22}, [lr], r2
241 vmlsl.u8 q6, d22, d1
243 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
250 vmlal.u8 q5, d22, d2
259 vmull.u8 q8, d22, d3
280 vmov d22, d26
327 vext.8 d22, d7, d8, #1
338 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1])
349 vext.8 d22, d6, d7, #2 ;construct src_ptr[0]
361 vmlal.u8 q6, d22, d
[all...]
H A Dsixtappredict8x8_neon.asm136 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8
141 vst1.u8 {d22}, [lr]! ;store result
269 vmlsl.u8 q6, d22, d1
271 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
278 vmlal.u8 q5, d22, d2
287 vmull.u8 q8, d22, d3
408 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8
413 vst1.u8 {d22}, [r4], r5 ;store result
435 vld1.u8 {d22}, [r0], r1
461 vmlsl.u8 q6, d22, d
[all...]
H A Dbilinearpredict8x8_neon.asm62 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8
111 vmull.u8 q1, d22, d0 ;(src_ptr[0] * vp8_filter[0])
151 vld1.u8 {d22}, [r0], r1 ;load src data
165 vst1.u8 {d22}, [r4], lr ;store result
H A Dsixtappredict4x4_neon.asm150 vext.8 d31, d22, d23, #5 ;construct src_ptr[3]
165 vmlal.u8 q12, d22, d0 ;(src_ptr[-2] * vp8_filter[0])
171 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1]
181 vext.8 d31, d22, d23, #4 ;construct src_ptr[2]
191 vext.8 d31, d22, d23, #2 ;construct src_ptr[0]
199 vext.8 d31, d22, d23, #3 ;construct src_ptr[1]
H A Dsixtappredict8x4_neon.asm142 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8
148 vst1.u8 {d22}, [lr]! ;store result
255 vmull.u8 q3, d22, d0 ;(src_ptr[-2] * vp8_filter[0])
386 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8
391 vst1.u8 {d22}, [r4], r5 ;store result
407 vld1.u8 {d22}, [r0], r1
423 vmull.u8 q3, d22, d0 ;(src_ptr[-2] * vp8_filter[0])
/external/openssl/crypto/bn/asm/
H A Darmv4-gf2m.s135 vmov d22,d0
144 veor d20,d23,d22
151 veor d22,d0
154 vst1.32 {d22[0]},[r0,:32]!
155 vst1.32 {d22[1]},[r0,:32]
/external/libvpx/vp8/encoder/x86/
H A Dfwalsh_sse2.asm101 psubd xmm3, xmm6 ; c23 c22 d23 d22
135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20
138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
/external/valgrind/main/none/tests/arm/
H A Dneon64.c969 TESTINSN_bin("vshl.s32 d11, d22, d0", d11, d22, i32, -1, d0, i32, 12);
1747 TESTINSN_VLDn("vld2.16 {d20,d22}", d20, d22, d20, d22);
1750 TESTINSN_VLDn("vld2.16 {d20-d23}", d20, d21, d22, d23);
1787 TESTINSN_VLDn("vld3.8 {d20-d22}", d20, d21, d22, d20);
1791 TESTINSN_VLDn("vld3.16 {d20,d22,d24}", d20, d22, d2
[all...]

Completed in 252 milliseconds

12