/external/compiler-rt/lib/arm/ |
H A D | restore_vfp_d8_d15_regs.S | 26 // Restore registers d8-d15 from stack 30 vldmia sp!, {d8-d15} // pop registers d8-d15 off stack
|
H A D | save_vfp_d8_d15_regs.S | 26 // Save registers d8-d15 onto stack 30 vstmdb sp!, {d8-d15} // push registers d8-d15 onto stack
|
/external/libvpx/vp8/common/arm/neon/ |
H A D | loopfilter_neon.asm | 98 vld1.u8 {d15}, [r12], r1 ; q0 115 vst1.u8 {d15}, [r2], r1 ; store v oq0 156 vld1.u8 {d15}, [r2], r1 182 vswp d16, d15 193 vst4.8 {d14[0], d15[0], d16[0], d17[0]}, [r0], r1 194 vst4.8 {d14[1], d15[1], d16[1], d17[1]}, [r0], r1 195 vst4.8 {d14[2], d15[2], d16[2], d17[2]}, [r0], r1 196 vst4.8 {d14[3], d15[3], d16[3], d17[3]}, [r0], r1 197 vst4.8 {d14[4], d15[4], d16[4], d17[4]}, [r0], r1 198 vst4.8 {d14[5], d15[ [all...] |
H A D | loopfiltersimpleverticaledge_neon.asm | 132 vst2.8 {d14[0], d15[0]}, [r2] 133 vst2.8 {d14[1], d15[1]}, [r3], r1 135 vst2.8 {d14[2], d15[2]}, [r3] 136 vst2.8 {d14[3], d15[3]}, [r12], r1 138 vst2.8 {d14[4], d15[4]}, [r12] 139 vst2.8 {d14[5], d15[5]}, [r0], r1 141 vst2.8 {d14[6], d15[6]}, [r0] 142 vst2.8 {d14[7], d15[7]}, [r2]
|
H A D | bilinearpredict16x16_neon.asm | 94 vqrshrn.u16 d15, q8, #7 105 vst1.u8 {d14, d15, d16, d17}, [lr]! ;store result 113 vld1.u8 {d14, d15, d16}, [r0], r1 141 vmull.u8 q4, d15, d0 144 vext.8 d14, d14, d15, #1 150 vext.8 d15, d15, d16, #1 153 vmlal.u8 q4, d15, d1 160 vqrshrn.u16 d15, q14, #7 167 vst1.u8 {d14, d15, d1 [all...] |
/external/llvm/test/MC/ARM/ |
H A D | neon-shiftaccum-encoding.s | 4 vsra.s16 d15, d14, #16 13 vsra.u32 d12, d15, #22 31 vsra.u32 d15, #22 39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 65 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0x1f,0xf1,0xaa,0xf3] 76 vrsra.u8 d15, d22, #8 111 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x36,0xf3,0x88,0xf3] 145 vsli.64 d14, d15, #6 [all...] |
H A D | neont2-shiftaccum-encoding.s | 6 vsra.s16 d15, d14, #16 15 vsra.u32 d12, d15, #22 33 vsra.u32 d15, #22 41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 67 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xf1] 79 vrsra.u8 d15, d22, #8 114 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x88,0xff,0x36,0xf3] 148 vsli.64 d14, d15, #6 [all...] |
H A D | neont2-pairwise-encoding.s | 20 vpaddl.u32 d6, d15 33 @ CHECK: vpaddl.u32 d6, d15 @ encoding: [0xb8,0xff,0x8f,0x62] 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 88 vpmax.s32 d5, d22, d15 96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
|
H A D | neon-minmax-encoding.s | 7 vmax.u16 d13, d14, d15 15 vmax.u16 d14, d15 39 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x0f,0xd6,0x1e,0xf3] 46 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x0f,0xe6,0x1e,0xf3] 69 vmin.u16 d13, d14, d15 77 vmin.u16 d14, d15 101 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1f,0xd6,0x1e,0xf3] 108 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1f,0xe6,0x1e,0xf3]
|
H A D | neont2-dup-encoding.s | 6 vdup.16 d15, r2 13 @ CHECK: vdup.16 d15, r2 @ encoding: [0x8f,0xee,0x30,0x2b]
|
H A D | neont2-minmax-encoding.s | 9 vmax.u16 d13, d14, d15 17 vmax.u16 d14, d15 41 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xd6] 48 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xe6] 71 vmin.u16 d13, d14, d15 79 vmin.u16 d14, d15 103 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xd6] 110 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xe6]
|
H A D | neon-shift-encoding.s | 119 vsra.s16 d15, #15 136 @ CHECK: vsra.s16 d15, d15, #15 @ encoding: [0x1f,0xf1,0x91,0xf2] 155 vsra.u16 d15, #15 172 @ CHECK: vsra.u16 d15, d15, #15 @ encoding: [0x1f,0xf1,0x91,0xf3] 191 vsri.16 d15, #15 208 @ CHECK: vsri.16 d15, d15, #15 @ encoding: [0x1f,0xf4,0x91,0xf3] 227 vsli.16 d15, #1 [all...] |
H A D | neon-sub-encoding.s | 16 vsub.i32 d15, d23 38 @ CHECK: vsub.i32 d15, d15, d23 @ encoding: [0x27,0xf8,0x2f,0xf3] 140 vhsub.u16 d15, d20 153 @ CHECK: vhsub.u16 d15, d15, d20 @ encoding: [0x24,0xf2,0x1f,0xf3]
|
/external/libvpx/vp8/encoder/arm/neon/ |
H A D | subtract_neon.asm | 85 vsubl.u8 q15, d13, d15 126 vld1.8 {d15}, [r3]! 135 vsubl.u8 q15, d14, d15 162 vld1.8 {d15}, [r3]! 171 vsubl.u8 q15, d14, d15
|
H A D | vp8_subpixelvariance16x16_neon.asm | 97 vqrshrn.u16 d15, q8, #7 108 vst1.u8 {d14, d15, d16, d17}, [lr]! ;store result 116 vld1.u8 {d14, d15, d16}, [r0], r1 144 vmull.u8 q4, d15, d0 147 vext.8 d14, d14, d15, #1 153 vext.8 d15, d15, d16, #1 156 vmlal.u8 q4, d15, d1 163 vqrshrn.u16 d15, q14, #7 170 vst1.u8 {d14, d15, d1 [all...] |
H A D | fastfdct4x4_neon.asm | 61 vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>16 67 vsub.s16 d5, d15, d16 ;op[3] = temp1 - temp2 91 vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>16 97 vsub.s16 d5, d15, d16 ;d2 = temp1 - temp2
|
H A D | vp8_subpixelvariance16x16s_neon.asm | 49 vld1.u8 {d12, d13, d14, d15}, [r0], r1 89 vmlal.s16 q10, d15, d15 166 vsubl.u8 q3, d13, d15 247 vld1.u8 {d12, d13, d14, d15}, [r0], r1 279 vsubl.u8 q1, d5, d15 374 vld1.u8 {d12, d13, d14, d15}, [r0], r1 416 vld1.u8 {d12, d13, d14, d15}, [r0], r1 449 vst1.u8 {d12, d13, d14, d15}, [r3]! 474 vld1.u8 {d14, d15}, [r [all...] |
H A D | fastfdct8x4_neon.asm | 65 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1 87 vadd.s16 d6, d15, d17 ;op[2] = ((temp2 * x_c2 )>>16) + temp2 116 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1 138 vadd.s16 d4, d15, d17 ;c2 = ((temp2 * x_c2 )>>16) + temp2
|
/external/libvpx/vp8/decoder/arm/neon/ |
H A D | dequant_idct_neon.asm | 33 vld1.32 {d15[0]}, [r2], r1 34 vld1.32 {d15[1]}, [r2] 111 vaddw.u8 q2, q2, d15
|
/external/valgrind/main/none/tests/arm/ |
H A D | neon64.c | 625 TESTINSN_imm("vmov.i64 d15", d15, 0xFF0000FF00FFFF00); 639 TESTINSN_imm("vmvn.i64 d15", d15, 0xFF0000FF00FFFF00); 647 TESTINSN_imm("vorr.i32 d15", d15, 0x7000000); 655 TESTINSN_imm("vbic.i32 d15", d15, 0x7000000); 659 TESTINSN_un("vmvn d10, d15", d10, d15, i3 [all...] |
H A D | vfp.c | 1090 TESTINSN_scalar_to_core("vmov.32 r5, d15[1]", r5, d15, i32, 0x11223344); 1132 TESTINSN_bin_f64("vmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0), f2u1(0.0)); 1133 TESTINSN_bin_f64("vmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN), f2u1(NAN)); 1138 TESTINSN_bin_f64("vmla.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i32, f2u0(-248562.76), f2u1(-248562.76)); 1141 TESTINSN_bin_f64("vmla.f64 d29, d15, d7", d29, d15, i3 [all...] |
H A D | neon64.stdout.exp | 20 vmov.i64 d15, #0xFF0000FF00FFFF00 :: Qd 0xff0000ff 0x00ffff00 21 vmov.i64 d15, #0xFF0000FF00FFFF00 :: Qd 0xff0000ff 0x00ffff00 45 vmvn.i64 d15, #0xFF0000FF00FFFF00 :: Qd 0x00ffff00 0xff0000ff 46 vmvn.i64 d15, #0xFF0000FF00FFFF00 :: Qd 0x00ffff00 0xff0000ff 58 vorr.i32 d15, #0x7000000 :: Qd 0x57555555 0x57555555 59 vorr.i32 d15, #0x7000000 :: Qd 0x171b1a1b 0x171f1e1f 71 vbic.i32 d15, #0x7000000 :: Qd 0x50555555 0x50555555 72 vbic.i32 d15, #0x7000000 :: Qd 0x101b1a1b 0x101f1e1f 76 vmvn d10, d15 :: Qd 0xffffffe7 0xffffffe7 Qm (i32)0x00000018 77 vmvn d10, d15 [all...] |
H A D | vfp.stdout.exp | 80 vmov.32 r5, d15[1] :: Rd 0x11223344 Qm (i32)0x11223344 121 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 00000000 122 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x7ff80000 00000000 127 vmla.f64 d30, d15, d2 :: Qd 0x420524a9 0x817febf4 Qm 0xc0e64c67 ae147ae1 Qn 0xc10e5796 147ae148 130 vmla.f64 d29, d15, d7 :: Qd 0x41b65928 0xd6020000 Qm 0x406ac000 00000000 Qn 0x413abc01 00000000 140 vmla.f64 d20, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0xfff00000 00000000 Qn 0x00000000 00000000 141 vmla.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000 170 vnmla.f64 d10, d13, d15 :: Qd 0xfff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 00000000 171 vnmla.f64 d10, d13, d15 :: Qd 0xfff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x7ff80000 00000000 176 vnmla.f64 d30, d15, d [all...] |
/external/libvpx/vp8/common/ppc/ |
H A D | recon_altivec.asm | 23 lvx v3, r8, \Diff ;# v3 = d8..d15 62 lvx v3, r8, \Diff ;# v2 = d8..d15 153 lwzu r0, 32(r3) ;# v3 = d8..d15
|
/external/libyuv/files/source/ |
H A D | rotate_neon.s | 268 vst1.i64 {d12, d13, d14, d15}, [r0]! 275 vld1.i64 {d12, d13, d14, d15}, [r0]! 386 vld2.8 {d14, d15}, [r9] 431 vst1.8 {d15}, [r9], r5 471 vtbl.8 d9, {d0, d1}, d15 473 vtbl.8 d11, {d2, d3}, d15 475 vtbl.8 d13, {d4, d5}, d15 477 vtbl.8 d1, {d6, d7}, d15
|