/external/libvpx/vp8/common/arm/neon/ |
H A D | loopfiltersimpleverticaledge_neon.asm | 43 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 45 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 47 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 49 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 50 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 51 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 52 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1 53 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r0], r1 117 vswp d13, d14 121 vst2.8 {d12[0], d13[ [all...] |
H A D | shortidct4x4llm_neon.asm | 44 vqsub.s16 d13, d2, d3 ;b1 61 vqadd.s16 d3, d13, d10 62 vqsub.s16 d4, d13, d10 76 vqsub.s16 d13, d2, d3 ;b1 88 vqadd.s16 d3, d13, d10 89 vqsub.s16 d4, d13, d10
|
H A D | loopfilter_neon.asm | 97 vld1.u8 {d13}, [r12], r1 ; p0 113 vst1.u8 {d13}, [r2], r1 ; store v op0 155 vld1.u8 {d13}, [r2], r1 180 vswp d16, d13 185 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 186 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 187 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 188 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 189 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 190 vst4.8 {d10[5], d11[5], d12[5], d13[ [all...] |
H A D | sixtappredict8x4_neon.asm | 76 vext.8 d31, d12, d13, #1 86 vext.8 d31, d12, d13, #4 96 vext.8 d31, d12, d13, #2 106 vext.8 d31, d12, d13, #5 116 vext.8 d31, d12, d13, #3 154 vext.8 d30, d12, d13, #1 166 vext.8 d30, d12, d13, #4 178 vext.8 d30, d12, d13, #2 190 vext.8 d30, d12, d13, #5 202 vext.8 d30, d12, d13, # [all...] |
H A D | sixtappredict8x8_neon.asm | 80 vext.8 d31, d12, d13, #1 90 vext.8 d31, d12, d13, #4 100 vext.8 d31, d12, d13, #2 110 vext.8 d31, d12, d13, #5 120 vext.8 d31, d12, d13, #3 167 vext.8 d30, d12, d13, #1 179 vext.8 d30, d12, d13, #4 191 vext.8 d30, d12, d13, #2 203 vext.8 d30, d12, d13, #5 215 vext.8 d30, d12, d13, # [all...] |
H A D | sixtappredict16x16_neon.asm | 72 vld1.u8 {d12, d13, d14}, [r0], r1 83 vmull.u8 q13, d13, d0 87 vext.8 d30, d12, d13, #1 95 vext.8 d30, d13, d14, #1 103 vext.8 d30, d12, d13, #4 111 vext.8 d30, d13, d14, #4 119 vext.8 d30, d12, d13, #5 127 vext.8 d30, d13, d14, #5 135 vext.8 d30, d12, d13, #2 143 vext.8 d30, d13, d1 [all...] |
H A D | bilinearpredict16x16_neon.asm | 52 vld1.u8 {d11, d12, d13}, [r0], r1 84 vext.8 d12, d12, d13, #1 108 vld1.u8 {d11, d12, d13}, [r0], r1 149 vext.8 d12, d12, d13, #1 158 vqrshrn.u16 d13, q12, #7 166 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 241 vld1.u8 {d11, d12, d13}, [r0], r1 269 vext.8 d12, d12, d13, #1
|
H A D | mbloopfilter_neon.asm | 96 vld1.u8 {d13}, [r3], r1 ; p0 121 vst1.u8 {d13}, [r3], r1 ; store v op0 161 vld1.u8 {d13}, [r0], r1 233 vst1.8 {d13}, [r12], r1 271 vld1.u8 {d13}, [r3], r1 335 vst1.8 {d13}, [r3], r1 423 vsubl.s8 q13, d15, d13
|
/external/llvm/test/MC/ARM/ |
H A D | neont2-dup-encoding.s | 21 vdup.32 d18, d13[0] 27 vdup.32 d18, d13[1] 34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c] 40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
|
H A D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 [all...] |
H A D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d3, d13 [all...] |
H A D | neon-shift-encoding.s | 121 vsra.s64 d13, #63 138 @ CHECK: vsra.s64 d13, d13, #63 @ encoding: [0x9d,0xd1,0x81,0xf2] 157 vsra.u64 d13, #63 174 @ CHECK: vsra.u64 d13, d13, #63 @ encoding: [0x9d,0xd1,0x81,0xf3] 193 vsri.64 d13, #63 210 @ CHECK: vsri.64 d13, d13, #63 @ encoding: [0x9d,0xd4,0x81,0xf3] 229 vsli.64 d13, #6 [all...] |
H A D | neon-sub-encoding.s | 14 vsub.i8 d13, d21 36 @ CHECK: vsub.i8 d13, d13, d21 @ encoding: [0x25,0xd8,0x0d,0xf3] 138 vhsub.s32 d13, d22 151 @ CHECK: vhsub.s32 d13, d13, d22 @ encoding: [0x26,0xd2,0x2d,0xf2]
|
H A D | neon-minmax-encoding.s | 7 vmax.u16 d13, d14, d15 39 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x0f,0xd6,0x1e,0xf3] 69 vmin.u16 d13, d14, d15 101 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1f,0xd6,0x1e,0xf3]
|
H A D | neont2-minmax-encoding.s | 9 vmax.u16 d13, d14, d15 41 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xd6] 71 vmin.u16 d13, d14, d15 103 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xd6]
|
H A D | neon-vst-encoding.s | 68 vst3.i8 {d12, d13, d14}, [r6], r1 69 vst3.i16 {d11, d12, d13}, [r7], r2 88 @ CHECK: vst3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x06,0xf4] 89 @ CHECK: vst3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x07,0xf4] 184 vst3.i8 {d12[1], d13[1], d14[1]}, [r6], r1 185 vst3.i16 {d11[1], d12[1], d13[1]}, [r7], r2 201 @ CHECK: vst3.8 {d12[1], d13[1], d14[1]}, [r6], r1 @ encoding: [0x21,0xc2,0x86,0xf4] 202 @ CHECK: vst3.16 {d11[1], d12[1], d13[1]}, [r7], r2 @ encoding: [0x42,0xb6,0x87,0xf4]
|
/external/libvpx/vp8/decoder/arm/neon/ |
H A D | dequant_idct_neon.asm | 51 vqsub.s16 d13, d2, d3 ;b1 63 vqadd.s16 d3, d13, d10 64 vqsub.s16 d4, d13, d10 80 vqsub.s16 d13, d2, d3 ;b1 94 vqadd.s16 d3, d13, d10 95 vqsub.s16 d4, d13, d10
|
/external/libvpx/vp8/encoder/arm/neon/ |
H A D | subtract_neon.asm | 85 vsubl.u8 q15, d13, d15 124 vld1.8 {d13}, [r3]! 134 vsubl.u8 q14, d12, d13 160 vld1.8 {d13}, [r3]! 170 vsubl.u8 q14, d12, d13
|
H A D | vp8_subpixelvariance16x16s_neon.asm | 49 vld1.u8 {d12, d13, d14, d15}, [r0], r1 86 vmlal.s16 q10, d13, d13 166 vsubl.u8 q3, d13, d15 247 vld1.u8 {d12, d13, d14, d15}, [r0], r1 276 vsubl.u8 q12, d3, d13 317 vmlal.s16 q15, d13, d13 374 vld1.u8 {d12, d13, d14, d15}, [r0], r1 416 vld1.u8 {d12, d13, d1 [all...] |
H A D | vp8_subpixelvariance16x16_neon.asm | 55 vld1.u8 {d11, d12, d13}, [r0], r1 87 vext.8 d12, d12, d13, #1 111 vld1.u8 {d11, d12, d13}, [r0], r1 152 vext.8 d12, d12, d13, #1 161 vqrshrn.u16 d13, q12, #7 169 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 247 vld1.u8 {d11, d12, d13}, [r0], r1 275 vext.8 d12, d12, d13, #1
|
H A D | fastfdct4x4_neon.asm | 65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2 95 vadd.s16 d4, d11, d13 ;c2 = ((temp2 * x_c2 )>>16) + temp2
|
/external/libvpx/vp8/encoder/x86/ |
H A D | fwalsh_sse2.asm | 81 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13 86 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12 94 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
|
/external/valgrind/main/none/tests/arm/ |
H A D | vfp.c | 1081 TESTINSN_core_to_scalar("vmov.8 d13[4], r5", d13, r5, 213); 1132 TESTINSN_bin_f64("vmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0), f2u1(0.0)); 1133 TESTINSN_bin_f64("vmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN), f2u1(NAN)); 1145 TESTINSN_bin_f64("vmla.f64 d13, d24, d5", d13, d24, i32, f2u0(874), f2u1(874), d5, i32, f2u0(1384.6), f2u1(1384.6)); 1151 TESTINSN_bin_f64("vmla.f64 d20, d13, d15", d20, d13, i3 [all...] |
H A D | neon64.c | 623 TESTINSN_imm("vmov.i32 d13", d13, 0x7FF); 636 TESTINSN_imm("vmvn.i32 d13", d13, 0x7000000); 683 TESTINSN_bin("vadd.i64 d13, d14, d15", d13, d14, i32, 140, d15, i32, 120); 696 TESTINSN_bin("vsub.i64 d13, d14, d15", d13, d14, i32, 140, d15, i32, 120); 998 TESTINSN_bin_q("vqshl.s64 d13, d14, d31", d13, d1 [all...] |
/external/libyuv/files/source/ |
H A D | rotate_neon.s | 268 vst1.i64 {d12, d13, d14, d15}, [r0]! 275 vld1.i64 {d12, d13, d14, d15}, [r0]! 385 vld2.8 {d12, d13}, [r9], r1 432 vst1.8 {d13}, [r9] 475 vtbl.8 d13, {d4, d5}, d15 489 vst1.32 {d13[0]}, [r9], r3 490 vst1.32 {d13[1]}, [r9]
|