/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | sixtappredict8x4_neon.asm | 70 vdup.8 d4, d26[0] 99 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 100 vmlsl.u8 q8, d29, d4 101 vmlsl.u8 q9, d30, d4 102 vmlsl.u8 q10, d31, d4 180 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 181 vmlsl.u8 q9, d28, d4 182 vmlsl.u8 q10, d29, d4 183 vmlsl.u8 q11, d30, d4 184 vmlsl.u8 q12, d31, d4 [all...] |
H A D | sixtappredict8x8_neon.asm | 73 vdup.8 d4, d26[0] 103 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 104 vmlsl.u8 q8, d29, d4 105 vmlsl.u8 q9, d30, d4 106 vmlsl.u8 q10, d31, d4 193 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 194 vmlsl.u8 q9, d28, d4 195 vmlsl.u8 q10, d29, d4 196 vmlsl.u8 q11, d30, d4 197 vmlsl.u8 q12, d31, d4 [all...] |
H A D | sixtappredict16x16_neon.asm | 76 vdup.8 d4, d26[0] 116 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 117 vmlsl.u8 q10, d29, d4 118 vmlsl.u8 q12, d30, d4 124 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 125 vmlsl.u8 q11, d29, d4 126 vmlsl.u8 q13, d30, d4 215 vdup.8 d4, d16[0] 242 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4]) 243 vmlsl.u8 q4, d23, d4 [all...] |
H A D | vp8_subpixelvariance16x16s_neon.asm | 45 vld1.u8 {d4, d5, d6, d7}, [r0], r1 70 vsubl.u8 q0, d4, d26 98 vmlal.s16 q9, d4, d4 161 vsubl.u8 q13, d4, d6 191 vmlal.s16 q9, d4, d4 245 vld1.u8 {d4, d5, d6, d7}, [r0], r1 278 vsubl.u8 q0, d4, d14 ;diff 372 vld1.u8 {d4, d [all...] |
/external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/ |
H A D | filterbanks_neon.S | 70 vshrn.i32 d4, q2, #16 71 vmull.s16 q1, d31, d4 72 vst1.16 d4[1], [r0], r4 @ Store data_ch1[n] 73 vst1.16 d4[3], [r1], r4 @ Store data_ch2[n] 75 vld1.16 d4[1], [r0], r2 @ Load data_ch1[n + 2] 76 vld1.16 d4[3], [r1], r2 @ Load data_ch2[n + 2] 78 vrev32.16 d0, d4 98 vshrn.i32 d4, q2, #16 99 vmull.s16 q1, d31, d4 100 vst1.16 d4[ [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_inter_pred_chroma_vert_w16inp.s | 194 vld1.16 {d4},[r0],r2 201 vmlal.s16 q14,d4,d15 209 vmlal.s16 q13,d4,d14 219 vmlal.s16 q12,d4,d13 243 vld1.16 {d4},[r0],r2 247 vmlal.s16 q14,d4,d15 261 vmlal.s16 q13,d4,d14 272 vmlal.s16 q12,d4,d13 298 vld1.16 {d4},[r0],r2 302 vmlal.s16 q14,d4,d1 [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 193 vld1.16 {d4},[r0],r2 200 vmlal.s16 q14,d4,d15 207 vmlal.s16 q13,d4,d14 217 vmlal.s16 q12,d4,d13 239 vld1.16 {d4},[r0],r2 243 vmlal.s16 q14,d4,d15 256 vmlal.s16 q13,d4,d14 265 vmlal.s16 q12,d4,d13 290 vld1.16 {d4},[r0],r2 294 vmlal.s16 q14,d4,d1 [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16out.s | 146 vld1.8 {d4},[r6],r2 @loads incremented src 149 vmlal.u8 q3,d4,d2 @vmlal_u8(mul_res1, vreinterpret_u8_u32(src_tmp3), coeffabs_2) 150 vmull.u8 q2,d4,d1 197 vst1.32 {d4},[r1] @stores the loaded value 230 vld1.8 {d4},[r0]! @loads the source 234 vmlsl.u8 q15,d4,d0 254 vld1.8 {d4},[r0]! @loads the source 277 vmlsl.u8 q15,d4,d0 302 vld1.8 {d4},[r0]! @loads the source 333 vmlsl.u8 q15,d4,d [all...] |
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 151 vld1.16 {d4},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 170 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 184 vmlal.s16 q6,d4,d24 194 vmull.s16 q7,d4,d23 200 vld1.16 {d4},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 226 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 239 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 258 vmlal.s16 q6,d4,d24 279 vmull.s16 q7,d4,d2 [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 161 vld1.16 {d4},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 180 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 194 vmlal.s16 q6,d4,d24 205 vmull.s16 q7,d4,d23 211 vld1.16 {d4},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 239 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 253 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 273 vmlal.s16 q6,d4,d24 295 vmull.s16 q7,d4,d2 [all...] |
H A D | ihevc_itrans_recon_8x8.s | 142 @// row 0 second half - d4 - y0 186 vld1.16 d4,[r0],r5 216 @// vld1.16 d4,[r0]! 287 vld1.16 d4,[r0],r5 364 vmull.s16 q10,d4,d0[0] @// y0 * cos4(part of c0 and c1) 400 vqrshrn.s32 d4,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct) 442 @ vmull.s16 q11,d4,d0[0] @// y4 * cos4(part of c0 and c1) 478 vqrshrn.s32 d4,q15,#shift_stage2_idct 501 vtrn.16 d4,d5 507 vtrn.32 d2,d4 [all...] |
H A D | ihevc_deblk_chroma_horz.s | 69 vld1.8 {d4},[r5] 85 vmovl.u8 q2,d4
|
H A D | ihevc_intra_pred_chroma_mode_18_34.s | 138 vld1.8 {d4,d5},[r8],r6 139 vst1.8 {d4,d5},[r10],r3
|
H A D | ihevc_intra_pred_chroma_planar.s | 183 vdup.s16 d4, r7 @src[2nt-1-row] 186 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row] 196 vmlal.u8 q14,d31,d4 199 vdup.s16 d4, r7 @src[2nt-1-row] 233 vmlal.u8 q11, d30, d4 @(nt-1-col) * src[2nt-1-row] 240 vmlal.u8 q10,d31,d4 334 vdup.s16 d4, r7 @src[2nt-1-row] 341 vmlal.u8 q6, d9, d4 @(nt-1-col) * src[2nt-1-row]
|
/external/llvm/test/MC/ARM/ |
H A D | neon-v8.s | 3 vmaxnm.f32 d4, d5, d1 4 @ CHECK: vmaxnm.f32 d4, d5, d1 @ encoding: [0x11,0x4f,0x05,0xf3] 7 vminnm.f32 d5, d4, d30 8 @ CHECK: vminnm.f32 d5, d4, d30 @ encoding: [0x3e,0x5f,0x24,0xf3] 12 vcvta.s32.f32 d4, d6 13 @ CHECK: vcvta.s32.f32 d4, d6 @ encoding: [0x06,0x40,0xbb,0xf3]
|
H A D | thumb-neon-v8.s | 3 vmaxnm.f32 d4, d5, d1 4 @ CHECK: vmaxnm.f32 d4, d5, d1 @ encoding: [0x05,0xff,0x11,0x4f] 7 vminnm.f32 d5, d4, d30 8 @ CHECK: vminnm.f32 d5, d4, d30 @ encoding: [0x24,0xff,0x3e,0x5f] 12 vcvta.s32.f32 d4, d6 13 @ CHECK: vcvta.s32.f32 d4, d6 @ encoding: [0xbb,0xff,0x06,0x40]
|
H A D | simple-fp-encoding.s | 147 vmov.f64 d4, r3, r9 152 @ CHECK: vmov d4, r3, r9 @ encoding: [0x14,0x3b,0x49,0xec] 269 @ CHECK: vstr d4, [r1] @ encoding: [0x00,0x4b,0x81,0xed] 270 @ CHECK: vstr d4, [r1, #24] @ encoding: [0x06,0x4b,0x81,0xed] 271 @ CHECK: vstr d4, [r1, #-24] @ encoding: [0x06,0x4b,0x01,0xed] 275 vstr.64 d4, [r1] 276 vstr.64 d4, [r1, #24] 277 vstr.64 d4, [r1, #-24] 288 @ CHECK: vldmia r1, {d2, d3, d4, d5, d6, d7} @ encoding: [0x0c,0x2b,0x91,0xec] 293 @ CHECK: vstmia r1, {d2, d3, d4, d [all...] |
H A D | neont2-pairwise-encoding.s | 42 vpadal.s8 d16, d4 55 @ CHECK: vpadal.s8 d16, d4 @ encoding: [0xf0,0xff,0x04,0x06] 87 vpmax.s16 d4, d21, d16 95 @ CHECK: vpmax.s16 d4, d21, d16 @ encoding: [0x15,0xef,0xa0,0x4a]
|
/external/jpeg/ |
H A D | jsimd_arm_neon.S | 183 * 0 | d4 | d5 192 vld1.16 {d4, d5, d6, d7}, [COEF_BLOCK]! 257 vqshrun.s16 d4, q2, #5 267 .irp x, d4, d6, d8, d10, d12, d14, d16, d18 404 * 0 | d4 | d5 413 vld1.16 {d4, d5, d6, d7}, [COEF_BLOCK]! 434 idct_helper d4, d6, d8, d10, d12, d14, d16, 12, d4, d6, d8, d10 435 transpose_4x4 d4, d6, d8, d10 440 idct_helper d4, d [all...] |
/external/clang/test/CXX/dcl.dcl/dcl.spec/dcl.type/dcl.type.elab/ |
H A D | p3.cpp | 47 void d4(enum B<int>::Member); // expected-error {{no enum named 'Member' in 'B<int>'}}
|
/external/clang/test/CXX/special/class.dtor/ |
H A D | p5-0x.cpp | 105 } d4; // expected-error {{deleted function}} variable in typeref:struct:D4
|
/external/pixman/pixman/ |
H A D | pixman-arm-neon-asm-bilinear.S | 487 bilinear_load_mask mask_fmt, 1, d4 496 bilinear_duplicate_mask mask_fmt, 1, d4 504 mask_fmt, 1, d0, d1, q0, d4, \ 516 bilinear_load_mask mask_fmt, 2, d4 526 bilinear_duplicate_mask mask_fmt, 2, d4 533 mask_fmt, 2, d0, d1, q0, d4, \ 545 q3, q9, d4, d5, d16, d17, d18, d19 567 vshrn.u32 d4, q2, #(2 * BILINEAR_INTERPOLATION_BITS) 954 vshrn.u32 d4, q2, #(2 * BILINEAR_INTERPOLATION_BITS) 963 vdup.32 d4, d [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
H A D | subtract_neon.asm | 40 vld1.8 {d4}, [r3], r6 47 vsubl.u8 q12, d4, d5 85 vsubl.u8 q10, d4, d6 127 vld1.8 {d4}, [r1], r3 142 vsubl.u8 q10, d4, d5 163 vld1.8 {d4}, [r2], r3 178 vsubl.u8 q10, d4, d5
|
H A D | vp8_mse16x16_neon.asm | 43 vsubl.u8 q11, d0, d4 86 vld1.8 {d4}, [r2], r3 94 vsubl.u8 q11, d0, d4
|
/external/openssl/crypto/bn/asm/ |
H A D | armv4-gf2m.S | 109 vext.8 d4, d26, d26, #2 @ A2 110 vmull.p8 q2, d4, d27 @ H = A2*B 122 veor d4, d4, d5 @ t1 = (M) (P2 + P3) << 16 127 veor d4, d4, d5
|