Searched refs:q15 (Results 26 - 50 of 96) sorted by relevance

1234

/external/pixman/pixman/
H A Dpixman-arm-neon-asm.S171 vrshr.u16 q15, q12, #8
174 vraddhn.u16 d22, q12, q15
282 vrshr.u16 q15, q12, #8
289 vraddhn.u16 d22, q12, q15
369 vrshr.u16 q15, q12, #8
372 vraddhn.u16 d22, q12, q15
503 vqadd.u8 q15, q1, q3
525 vqadd.u8 q15, q1, q3
557 vqadd.u8 q15, q1, q3
594 vrshr.u16 q15, q
[all...]
H A Dpixman-android-neon.S142 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
160 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
173 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
259 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
265 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
/external/chromium_org/third_party/openmax_dl/dl/api/arm/
H A Darm64COMM_s.h179 str q15, [sp, #112]
228 ldr q15, [sp, #112]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/
H A Dsha512-armv4.S1050 vshr.u64 q15,q7,#6
1054 veor q15,q12
1056 veor q15,q13 @ sigma1(X[i+14])
1058 vadd.i64 q0,q15
1059 vshr.u64 q15,q14,#7
1063 veor q15,q12
1067 veor q15,q13 @ sigma0(X[i+1])
1069 vadd.i64 q0,q15
1138 vshr.u64 q15,q0,#6
1142 veor q15,q1
[all...]
/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.S1047 vshr.u64 q15,q7,#6
1051 veor q15,q12
1053 veor q15,q13 @ sigma1(X[i+14])
1055 vadd.i64 q0,q15
1056 vshr.u64 q15,q14,#7
1060 veor q15,q12
1064 veor q15,q13 @ sigma0(X[i+1])
1066 vadd.i64 q0,q15
1137 vshr.u64 q15,q0,#6
1141 veor q15,q1
[all...]
/external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/
H A Dlpc_masking_model_neon.S51 vmov.s64 q15, #0 @ Initialize the sum64_tmp.
75 vqadd.s64 q14, q0, q15 @ Sum and test overflow.
79 vshr.s64 q15, #1
80 vadd.s64 q14, q0, q15
85 vmov.s64 q15, q14
93 vqadd.s64 q0, q13, q15 @ Sum and test overflow.
96 vshr.s64 q15, #1
97 vadd.s64 q0, q13, q15
/external/libhevc/common/arm/
H A Dihevc_intra_pred_luma_planar.s199 vdup.16 q15, r4 @(2)
205 vmlal.u8 q15, d5, d0 @(2)
208 vmlal.u8 q15, d8, d1 @(2)
210 vmlal.u8 q15, d6, d3 @(2)
211 vmlal.u8 q15, d9, d21 @(2)
230 vshl.s16 q15, q15, q7 @(2)shr
235 vmovn.i16 d30, q15 @(2)
358 vdup.16 q15, r4 @(2)
368 vmlal.u8 q15, d
[all...]
H A Dihevc_weighted_pred_uni.s143 vdup.s32 q15,r10 @vmovq_n_s32(tmp_lvl_shift)
161 vadd.i32 q2,q2,q15 @vaddq_s32(i4_tmp1_t, tmp_lvl_shift_t)
168 vadd.i32 q3,q3,q15 @vaddq_s32(i4_tmp2_t, tmp_lvl_shift_t) ii iteration
173 vadd.i32 q5,q5,q15 @vaddq_s32(i4_tmp1_t, tmp_lvl_shift_t) iii iteration
184 vadd.i32 q6,q6,q15 @vaddq_s32(i4_tmp2_t, tmp_lvl_shift_t) iv iteration
H A Dihevc_weighted_pred_bi_default.s200 vqshrun.s16 d30,q15,#7
276 vld1.s16 {q15},[r12],r4 @load and increment the pi2_src2 ii iteration
278 vqadd.s16 q11,q14,q15 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2)
283 vqadd.s16 q15,q8,q9
286 vqadd.s16 q15,q15,q0 @vaddq_s32(i4_tmp1_t1, tmp_lvl_shift_t) iii iteration
291 vqshrun.s16 d30,q15,#7
333 vld1.s16 {q15},[r12],r4 @load and increment the pi2_src2 ii iteration
335 vqadd.s16 q11,q14,q15 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2)
414 vqadd.s16 q15,q1
[all...]
H A Dihevc_inter_pred_chroma_horz.s170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
174 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
176 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
216 vqrshrun.s16 d30,q15,#6
238 vst1.16 {q15}, [r1],r3
246 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
249 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
252 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
260 vmlsl.u8 q15,d
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s139 vmov.i32 q15,#0x80000
187 vsub.s32 q4, q4, q15
201 vsub.s32 q5, q5, q15
220 vsub.s32 q6, q6, q15
245 vsub.s32 q7, q7, q15
263 vsub.s32 q4, q4, q15
290 vsub.s32 q5, q5, q15
311 vsub.s32 q6, q6, q15
332 vsub.s32 q7, q7, q15
347 vsub.s32 q4, q4, q15
[all...]
H A Dihevc_weighted_pred_bi.s169 vdup.u32 q15,r4 @vmovq_n_s32(tmp_lvl_shift)
201 vadd.s32 q2,q2,q15 @vaddq_s32(i4_tmp1_t1, tmp_lvl_shift_t)
214 vadd.s32 q5,q5,q15 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) ii iteration
221 vadd.s32 q7,q7,q15 @vaddq_s32(i4_tmp1_t1, tmp_lvl_shift_t) iii iteration
232 vadd.s32 q9,q9,q15 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) iv iteration
/external/libhevc/decoder/arm/
H A Dihevcd_itrans_recon_dc_luma.s106 vaddw.u8 q15,q0,d2
116 vqmovun.s16 d2,q15
165 vaddw.u8 q15,q0,d2
172 vqmovun.s16 d2,q15
/external/libvpx/libvpx/vp8/encoder/arm/neon/
H A Dvp8_memcpy_neon.asm46 vld1.8 {q14, q15}, [r1]!
48 vst1.8 {q14, q15}, [r0]!
H A Dfastquantizeb_neon.asm113 vtst.16 q15, q5, q8 ; non-zero element is set to all 1
120 vand q1, q7, q15
178 vld1.s16 {q14, q15}, [r5@128]; load round_ptr [0-15]
182 vadd.s16 q13, q15
214 vtst.16 q15, q13, q8 ; non-zero element is set to all 1
219 vand q11, q11, q15
H A Dsubtract_neon.asm90 vsubl.u8 q15, d13, d15
99 vst1.16 {q15}, [r5], r6
147 vsubl.u8 q15, d14, d15
156 vst1.16 {q15}, [r7], r12
183 vsubl.u8 q15, d14, d15
192 vst1.16 {q15}, [r7], r12
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dvp8_subpixelvariance16x16s_neon.asm151 vld1.u8 {q15}, [r0], r1
157 vrhadd.u8 q6, q6, q15
194 vmov q0, q15
238 vmov.i8 q15, #0
285 vmlal.s16 q15, d19, d19
289 vmlal.s16 q15, d21, d21
293 vmlal.s16 q15, d23, d23
297 vmlal.s16 q15, d25, d25
303 vmlal.s16 q15, d1, d1
307 vmlal.s16 q15, d
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
H A Dvp9_reconintra_neon.asm544 vadd.s16 q15, q0, q11
550 vqmovun.s16 d3, q15
552 vadd.s16 q15, q2, q11
557 vqmovun.s16 d27, q15
566 vadd.s16 q15, q1, q11
572 vqmovun.s16 d3, q15
574 vadd.s16 q15, q2, q11
579 vqmovun.s16 d27, q15
588 vadd.s16 q15, q0, q11
594 vqmovun.s16 d3, q15
[all...]
H A Dvp9_convolve8_avg_neon.asm122 vtrn.32 q14, q15
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
148 vqrshrun.s32 d5, q15, #7
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
267 vqrshrun.s32 d5, q15, #7
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_reconintra_neon.asm544 vadd.s16 q15, q0, q11
550 vqmovun.s16 d3, q15
552 vadd.s16 q15, q2, q11
557 vqmovun.s16 d27, q15
566 vadd.s16 q15, q1, q11
572 vqmovun.s16 d3, q15
574 vadd.s16 q15, q2, q11
579 vqmovun.s16 d27, q15
588 vadd.s16 q15, q0, q11
594 vqmovun.s16 d3, q15
[all...]
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/
H A Dlpc_masking_model_neon.S54 vmov.s64 q15, #0 @ Initialize the sum64_tmp.
78 vqadd.s64 q14, q0, q15 @ Sum and test overflow.
82 vshr.s64 q15, #1
83 vadd.s64 q14, q0, q15
88 vmov.s64 q15, q14
96 vqadd.s64 q0, q13, q15 @ Sum and test overflow.
99 vshr.s64 q15, #1
100 vadd.s64 q0, q13, q15
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/
H A Dfastquantizeb_neon.asm113 vtst.16 q15, q5, q8 ; non-zero element is set to all 1
120 vand q1, q7, q15
178 vld1.s16 {q14, q15}, [r5@128]; load round_ptr [0-15]
182 vadd.s16 q13, q15
214 vtst.16 q15, q13, q8 ; non-zero element is set to all 1
219 vand q11, q11, q15
/external/valgrind/main/none/tests/arm/
H A Dneon128.stdout.exp20 vmov.i64 q15, #0xFF0000FF00FFFF00 :: Qd 0xff0000ff 0x00ffff00 0xff0000ff 0x00ffff00
21 vmov.i64 q15, #0xFF0000FF00FFFF00 :: Qd 0xff0000ff 0x00ffff00 0xff0000ff 0x00ffff00
45 vmvn.i64 q15, #0xFF0000FF00FFFF00 :: Qd 0x00ffff00 0xff0000ff 0x00ffff00 0xff0000ff
46 vmvn.i64 q15, #0xFF0000FF00FFFF00 :: Qd 0x00ffff00 0xff0000ff 0x00ffff00 0xff0000ff
58 vorr.i32 q15, #0x7000000 :: Qd 0x57555555 0x57555555 0x57555555 0x57555555
59 vorr.i32 q15, #0x7000000 :: Qd 0x171d191d 0x171c1f1c 0x171b1a1b 0x171f1e1f
71 vbic.i32 q15, #0x7000000 :: Qd 0x50555555 0x50555555 0x50555555 0x50555555
72 vbic.i32 q15, #0x7000000 :: Qd 0x101d191d 0x101c1f1c 0x101b1a1b 0x101f1e1f
76 vmvn q10, q15 :: Qd 0xffffffe7 0xffffffe7 0xffffffe7 0xffffffe7 Qm (i32)0x00000018
77 vmvn q10, q15
[all...]
/external/libpng/arm/
H A Dfilter_neon.S171 vaddl.u8 q15, \rc, \rc @ 2*c
174 vabd.u16 q15, q12, q15 @ pc
176 vcle.u16 q13, q13, q15 @ pa <= pc
177 vcle.u16 q14, q14, q15 @ pb <= pc
/external/openssl/crypto/aes/asm/
H A Daesv8-armx.pl314 ### q8-q15 preloaded key schedule
350 vld1.32 {q14-q15},[$key_],#32
392 aese $dat,q15
432 aese $dat,q15
486 aesd $dat0,q15
487 aesd $dat1,q15
571 aesd $dat0,q15
572 aesd $dat1,q15
612 aesd $dat,q15
640 ### q8-q15 preloade
[all...]

Completed in 531 milliseconds

1234