Searched refs:d23 (Results 1 - 25 of 53) sorted by relevance

123

/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm68 vst1.u8 {d23}, [r8@64], r1 ; store oq0
87 vst1.u8 {d23}, [r8@64], r1 ; store oq2
105 vst1.u8 {d23}, [r8@64], r1 ; store oq3
188 vswp d23, d25
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[
[all...]
H A Dvp9_loopfilter_neon.asm206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2)
211 vmax.u8 d23, d23, d3 ; m1 = max(m1, m3)
218 vcge.u8 d23, d1, d23 ; abs(m1) > limit
243 vand d23, d23, d17 ; filter_mask
252 vand d27, d27, d23 ; filter &= mask
457 vabd.u8 d23, d17, d16 ; m5 = abs(q2 - q1)
466 vmax.u8 d23, d2
[all...]
H A Dvp9_convolve8_avg_neon.asm100 vmov d23, d21
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
168 vmov d20, d23
H A Dvp9_convolve8_neon.asm100 vmov d23, d21
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
157 vmov d20, d23
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
H A Dsha512-armv4.S448 vldmia r0,{d16-d23} @ load context
463 vadd.i64 d27,d28,d23
480 veor d23,d24,d25
482 veor d23,d26 @ Sigma0(a)
484 vadd.i64 d23,d27
486 vadd.i64 d23,d30
507 vshr.u64 d24,d23,#28
509 vshr.u64 d25,d23,#34
510 vshr.u64 d26,d23,#39
511 vsli.64 d24,d23,#3
[all...]
/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.S448 vldmia r0,{d16-d23} @ load context
463 vadd.i64 d27,d28,d23
480 veor d23,d24,d25
482 veor d23,d26 @ Sigma0(a)
484 vadd.i64 d23,d27
486 vadd.i64 d23,d30
507 vshr.u64 d24,d23,#28
509 vshr.u64 d25,d23,#34
510 vshr.u64 d26,d23,#39
511 vsli.64 d24,d23,#3
[all...]
/external/llvm/test/MC/ARM/
H A Dneont2-vst-encoding.s60 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x40,0xf9,0x3d,0x11]
61 vst4.8 {d17, d19, d21, d23}, [r0:256]!
64 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x11]
65 vst4.16 {d17, d19, d21, d23}, [r0]!
68 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x8d,0x11]
69 vst4.32 {d17, d19, d21, d23}, [r0]!
99 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64] @ encoding: [0xc0,0xf9,0xff,0x17]
100 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64]
101 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xc0,0xf9,0x4f,0x1b]
102 vst4.32 {d17[0], d19[0], d21[0], d23[
[all...]
H A Dneont2-vld-encoding.s62 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x11]
63 vld4.8 {d17, d19, d21, d23}, [r0:256]!
66 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x11]
67 vld4.16 {d17, d19, d21, d23}, [r0]!
70 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x11]
71 vld4.32 {d17, d19, d21, d23}, [r0]!
110 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xe0,0xf9,0x4f,0x1b]
111 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
H A Dneon-vld-encoding.s202 vld4.8 {d17, d19, d21, d23}, [r5:256]
203 vld4.16 {d17, d19, d21, d23}, [r7]
209 vld4.u8 {d17, d19, d21, d23}, [r5:256]!
210 vld4.u16 {d17, d19, d21, d23}, [r7]!
218 vld4.i32 {d17, d19, d21, d23}, [r9], r4
223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x65,0xf4]
224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4]
229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x65,0xf4]
230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4]
237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r
[all...]
H A Dneont2-pairwise-encoding.s75 vpmin.f32 d22, d23, d16
83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f]
89 vpmax.u8 d6, d23, d14
97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
H A Deh-directive-vsave.s116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
H A Dthumb-v8fp.s37 vcvtn.s32.f64 s6, d23
38 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xbd,0xfe,0xe7,0x3b]
54 vcvtn.u32.f64 s6, d23
55 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0xbd,0xfe,0x67,0x3b]
69 vselge.f64 d30, d31, d23
70 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0x6f,0xfe,0xa7,0xeb]
H A Dv8fp.s34 vcvtn.s32.f64 s6, d23
35 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xe7,0x3b,0xbd,0xfe]
51 vcvtn.u32.f64 s6, d23
52 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0x67,0x3b,0xbd,0xfe]
66 vselge.f64 d30, d31, d23
67 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0xa7,0xeb,0x6f,0xfe]
H A Dneon-vst-encoding.s105 vst4.8 {d17, d19, d21, d23}, [r5:256]
106 vst4.16 {d17, d19, d21, d23}, [r7]
112 vst4.u8 {d17, d19, d21, d23}, [r5:256]!
113 vst4.u16 {d17, d19, d21, d23}, [r7]!
121 vst4.i32 {d17, d19, d21, d23}, [r9], r4
126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x45,0xf4]
127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4]
132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x45,0xf4]
133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4]
140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r
[all...]
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dvariance_neon.asm51 vmlal.s16 q10, d23, d23
121 vmlal.s16 q10, d23, d23
182 vmlal.s16 q10, d23, d23
241 vmlal.s16 q10, d23, d23
H A Dbilinearpredict8x4_neon.asm66 vqrshrn.u16 d23, q7, #7
86 vmull.u8 q2, d23, d0
90 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1])
112 vld1.u8 {d23}, [r0], r1
122 vst1.u8 {d23}, [r4], lr
H A Dvp8_subpixelvariance8x8_neon.asm67 vqrshrn.u16 d23, q7, #7
114 vmull.u8 q2, d23, d0
122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1])
132 vqrshrn.u16 d23, q2, #7
145 vld1.u8 {d23}, [r0], r1
173 vsubl.u8 q5, d23, d1
H A Dsixtappredict16x16_neon.asm227 vld1.u8 {d23}, [lr], r2 ;load src data
243 vmlsl.u8 q4, d23, d4
250 vmlal.u8 q6, d23, d2
252 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
259 vmull.u8 q9, d23, d3
327 vext.8 d23, d10, d11, #1
338 vmlsl.u8 q9, d23, d1
349 vext.8 d23, d9, d10, #2
361 vmlal.u8 q8, d23, d2
417 vld1.u8 {d23}, [r
[all...]
H A Dsixtappredict8x8_neon.asm148 vqrshrun.s16 d23, q8, #7
154 vst1.u8 {d23}, [lr]!
283 vmlsl.u8 q4, d23, d4
290 vmlal.u8 q6, d23, d2
292 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
299 vmull.u8 q9, d23, d3
420 vqrshrun.s16 d23, q8, #7
425 vst1.u8 {d23}, [r4], r5
448 vld1.u8 {d23}, [r0], r1
475 vmlsl.u8 q4, d23, d
[all...]
H A Dsixtappredict4x4_neon.asm149 vext.8 d31, d22, d23, #5 ;construct src_ptr[3]
170 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1]
180 vext.8 d31, d22, d23, #4 ;construct src_ptr[2]
190 vext.8 d31, d22, d23, #2 ;construct src_ptr[0]
198 vext.8 d31, d22, d23, #3 ;construct src_ptr[1]
209 vext.8 d23, d27, d28, #4
240 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
378 vext.8 d23, d27, d28, #4
392 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
H A Dbilinearpredict8x8_neon.asm64 vqrshrn.u16 d23, q7, #7
112 vmull.u8 q2, d23, d0
120 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1])
152 vld1.u8 {d23}, [r0], r1
166 vst1.u8 {d23}, [r4], lr
/external/chromium_org/third_party/openssl/openssl/crypto/bn/asm/
H A Darmv4-gf2m.S140 vmov d23,d0
144 veor d20,d23,d22
150 veor d23,d1
152 vst1.32 {d23[0]},[r0,:32]!
153 vst1.32 {d23[1]},[r0,:32]!
/external/openssl/crypto/bn/asm/
H A Darmv4-gf2m.S140 vmov d23,d0
144 veor d20,d23,d22
150 veor d23,d1
152 vst1.32 {d23[0]},[r0,:32]!
153 vst1.32 {d23[1]},[r0,:32]!
/external/pixman/pixman/
H A Dpixman-arm-neon-asm-bilinear.S515 q1, q11, d0, d1, d20, d21, d22, d23
523 vmlal.u16 q10, d23, d31
544 q1, q11, d0, d1, d20, d21, d22, d23 \
553 vmlal.u16 q10, d23, d31
581 q3, q8, q9, q10, d23
905 vld1.32 {d23}, [TMP1]
910 vmlal.u8 q8, d23, d29
913 vld1.32 {d23}, [TMP2]
918 vmlal.u8 q9, d23, d29
921 vld1.32 {d23}, [TMP
[all...]
/external/libvpx/libvpx/vp8/encoder/x86/
H A Dfwalsh_sse2.asm101 psubd xmm3, xmm6 ; c23 c22 d23 d22
135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20
138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20

Completed in 6034 milliseconds

123