Searched refs:d23 (Results 1 - 25 of 98) sorted by relevance

1234

/external/libhevc/common/arm/
H A Dihevc_intra_pred_chroma_ver.s121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31)
132 vst2.8 {d22,d23}, [r2], r11
133 vst2.8 {d22,d23}, [r5], r11
134 vst2.8 {d22,d23}, [r8], r11
135 vst2.8 {d22,d23}, [r10], r11
145 vst2.8 {d22,d23}, [r2], r11
146 vst2.8 {d22,d23}, [r5], r11
147 vst2.8 {d22,d23}, [r8], r11
148 vst2.8 {d22,d23}, [r10], r11
158 vst2.8 {d22,d23}, [r
[all...]
H A Dihevc_intra_pred_luma_vert.s122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31)
131 vst1.8 {d22,d23}, [r2], r11
132 vst1.8 {d22,d23}, [r5], r11
133 vst1.8 {d22,d23}, [r8], r11
134 vst1.8 {d22,d23}, [r10], r11
144 vst1.8 {d22,d23}, [r2], r11
145 vst1.8 {d22,d23}, [r5], r11
146 vst1.8 {d22,d23}, [r8], r11
147 vst1.8 {d22,d23}, [r10], r11
156 vst1.8 {d22,d23}, [r
[all...]
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s124 vdup.16 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@
148 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
164 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
180 vmull.s16 q6,d3,d23
194 vmull.s16 q7,d4,d23
220 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
236 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
252 vmull.s16 q6,d3,d23
279 vmull.s16 q7,d4,d23
305 vmull.s16 q4,d1,d23
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s132 vdup.16 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@
158 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
174 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
190 vmull.s16 q6,d3,d23
205 vmull.s16 q7,d4,d23
233 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
250 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
267 vmull.s16 q6,d3,d23
295 vmull.s16 q7,d4,d23
322 vmull.s16 q4,d1,d23
[all...]
H A Dihevc_intra_pred_chroma_mode2.s152 vrev64.8 d23,d7
179 vst2.8 {d22,d23},[r14],r5
217 vrev64.8 d23,d7
241 vst2.8 {d22,d23},[r14],r5
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm68 vst1.u8 {d23}, [r8@64], r1 ; store oq0
87 vst1.u8 {d23}, [r8@64], r1 ; store oq2
105 vst1.u8 {d23}, [r8@64], r1 ; store oq3
188 vswp d23, d25
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[
[all...]
H A Dvp9_loopfilter_neon.asm206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2)
211 vmax.u8 d23, d23, d3 ; m1 = max(m1, m3)
218 vcge.u8 d23, d1, d23 ; abs(m1) > limit
243 vand d23, d23, d17 ; filter_mask
252 vand d27, d27, d23 ; filter &= mask
457 vabd.u8 d23, d17, d16 ; m5 = abs(q2 - q1)
466 vmax.u8 d23, d2
[all...]
H A Dvp9_convolve8_avg_neon.asm100 vmov d23, d21
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
168 vmov d20, d23
H A Dvp9_convolve8_neon.asm100 vmov d23, d21
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
157 vmov d20, d23
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm68 vst1.u8 {d23}, [r8@64], r1 ; store oq0
87 vst1.u8 {d23}, [r8@64], r1 ; store oq2
105 vst1.u8 {d23}, [r8@64], r1 ; store oq3
188 vswp d23, d25
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[
[all...]
H A Dvp9_loopfilter_neon.asm206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2)
211 vmax.u8 d23, d23, d3 ; m1 = max(m1, m3)
218 vcge.u8 d23, d1, d23 ; abs(m1) > limit
243 vand d23, d23, d17 ; filter_mask
252 vand d27, d27, d23 ; filter &= mask
457 vabd.u8 d23, d17, d16 ; m5 = abs(q2 - q1)
466 vmax.u8 d23, d2
[all...]
H A Dvp9_convolve8_avg_neon.asm100 vmov d23, d21
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
168 vmov d20, d23
H A Dvp9_convolve8_neon.asm100 vmov d23, d21
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
157 vmov d20, d23
/external/llvm/test/MC/AArch64/
H A Dneon-scalar-mul.s30 fmulx d23, d11, d1
33 // CHECK: fmulx d23, d11, d1 // encoding: [0x77,0xdd,0x61,0x5e]
H A Dneon-scalar-shift-imm.s29 urshr d20, d23, #31
31 // CHECK: urshr d20, d23, #31 // encoding: [0xf4,0x26,0x61,0x7f]
/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.S448 vldmia r0,{d16-d23} @ load context
463 vadd.i64 d27,d28,d23
480 veor d23,d24,d25
482 veor d23,d26 @ Sigma0(a)
484 vadd.i64 d23,d27
486 vadd.i64 d23,d30
507 vshr.u64 d24,d23,#28
509 vshr.u64 d25,d23,#34
510 vshr.u64 d26,d23,#39
511 vsli.64 d24,d23,#3
[all...]
/external/libpng/arm/
H A Dfilter_neon.S82 vext.8 d5, d22, d23, #3
84 vext.8 d6, d22, d23, #6
86 vext.8 d7, d23, d23, #1
144 vext.8 d5, d22, d23, #3
148 vext.8 d6, d22, d23, #6
152 vext.8 d7, d23, d23, #1
220 vext.8 d5, d22, d23, #3
225 vext.8 d6, d22, d23, #
[all...]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/
H A Dsha512-armv4.S450 vldmia r0,{d16-d23} @ load context
473 vadd.i64 d27,d29,d23
482 veor d23,d24,d25
485 veor d23,d26 @ Sigma0(a)
488 @ vadd.i64 d23,d30
495 vadd.i64 d23,d30 @ h+=Maj from the past
508 vshr.u64 d24,d23,#28
511 vshr.u64 d25,d23,#34
512 vsli.64 d24,d23,#36
514 vshr.u64 d26,d23,#3
[all...]
/external/llvm/test/MC/ARM/
H A Dneont2-vst-encoding.s60 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x40,0xf9,0x3d,0x11]
61 vst4.8 {d17, d19, d21, d23}, [r0:256]!
64 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x11]
65 vst4.16 {d17, d19, d21, d23}, [r0]!
68 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x8d,0x11]
69 vst4.32 {d17, d19, d21, d23}, [r0]!
99 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64] @ encoding: [0xc0,0xf9,0xff,0x17]
100 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64]
101 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xc0,0xf9,0x4f,0x1b]
102 vst4.32 {d17[0], d19[0], d21[0], d23[
[all...]
H A Dneont2-vld-encoding.s62 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x11]
63 vld4.8 {d17, d19, d21, d23}, [r0:256]!
66 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x11]
67 vld4.16 {d17, d19, d21, d23}, [r0]!
70 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x11]
71 vld4.32 {d17, d19, d21, d23}, [r0]!
110 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xe0,0xf9,0x4f,0x1b]
111 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
H A Dneon-vld-encoding.s202 vld4.8 {d17, d19, d21, d23}, [r5:256]
203 vld4.16 {d17, d19, d21, d23}, [r7]
209 vld4.u8 {d17, d19, d21, d23}, [r5:256]!
210 vld4.u16 {d17, d19, d21, d23}, [r7]!
218 vld4.i32 {d17, d19, d21, d23}, [r9], r4
223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x65,0xf4]
224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4]
229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x65,0xf4]
230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4]
237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r
[all...]
H A Dneont2-pairwise-encoding.s75 vpmin.f32 d22, d23, d16
83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f]
89 vpmax.u8 d6, d23, d14
97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
H A Deh-directive-vsave.s116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dvariance_neon.asm51 vmlal.s16 q10, d23, d23
121 vmlal.s16 q10, d23, d23
182 vmlal.s16 q10, d23, d23
241 vmlal.s16 q10, d23, d23
H A Dvp8_subpixelvariance8x8_neon.asm67 vqrshrn.u16 d23, q7, #7
114 vmull.u8 q2, d23, d0
122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1])
132 vqrshrn.u16 d23, q2, #7
145 vld1.u8 {d23}, [r0], r1
173 vsubl.u8 q5, d23, d1

Completed in 399 milliseconds

1234