/external/webkit/Source/JavaScriptCore/assembler/ |
H A D | ARMAssembler.h | 69 d10, enumerator in enum:JSC::ARMRegisters::__anon14301
|
H A D | ARMv7Assembler.h | 105 d10, enumerator in enum:JSC::ARMRegisters::__anon14310
|
/external/valgrind/main/none/tests/arm/ |
H A D | neon64.c | 621 TESTINSN_imm("vmov.i32 d10", d10, 0x70000); 635 TESTINSN_imm("vmvn.i32 d10", d10, 0x70000); 654 TESTINSN_imm("vbic.i32 d10", d10, 0x70000); 659 TESTINSN_un("vmvn d10, d15", d10, d15, i32, 24); 664 TESTINSN_un("vmov d10, d15", d10, d1 [all...] |
H A D | neon64.stdout.exp | 12 vmov.i32 d10, #0x70000 :: Qd 0x00070000 0x00070000 13 vmov.i32 d10, #0x70000 :: Qd 0x00070000 0x00070000 37 vmvn.i32 d10, #0x70000 :: Qd 0xfff8ffff 0xfff8ffff 38 vmvn.i32 d10, #0x70000 :: Qd 0xfff8ffff 0xfff8ffff 69 vbic.i32 d10, #0x70000 :: Qd 0x55505555 0x55505555 70 vbic.i32 d10, #0x70000 :: Qd 0x13181a1b 0x12181e1f 76 vmvn d10, d15 :: Qd 0xffffffe7 0xffffffe7 Qm (i32)0x00000018 77 vmvn d10, d15 :: Qd 0xeae2e6e2 0xebe3e0e3 Qm (i32)0x00000018 83 vmov d10, d15 :: Qd 0x00000018 0x00000018 Qm (i32)0x00000018 84 vmov d10, d1 [all...] |
H A D | vfp.c | 1025 "vmov d10, r0, r1\n\t" 1028 "vstmia r1, {d10}\n\t" 1036 "vmov d10, r0, r1\n\t" 1039 "vstmdb r1!, {d10}\n\t" 1048 "d10", "d30", "d31" 1078 TESTINSN_core_to_scalar("vmov.8 d10[1], r5", d10, r5, f2u(NAN)); 1089 TESTINSN_scalar_to_core("vmov.32 r4, d10[0]", r4, d10, i32, f2u(-INFINITY)); 1100 TESTINSN_scalar_to_core("vmov.u16 r0, d10[ [all...] |
H A D | vfp.stdout.exp | 69 vmov.8 d10[1], r5 :: Dd 0x55555555 0x55550055 Dm 0x7fc00000 79 vmov.32 r4, d10[0] :: Rd 0xff800000 Qm (i32)0xff800000 90 vmov.u16 r0, d10[1] :: Rd 0x00001122 Qm (i32)0x11223344 106 vmov.s16 r0, d10[1] :: Rd 0x00001122 Qm (i32)0x11223344 121 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 00000000 122 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x7ff80000 00000000 129 vmla.f64 d10, d11, d2 :: Qd 0x41895139 0x98100000 Qm 0x40e7ce60 00000000 Qn 0x40910400 00000000 135 vmla.f64 d10, d11, d2 :: Qd 0x40e9f35f 0xb4bc6b7d Qm 0x407e7964 5a1cac08 Qn 0x405b4000 00000000 141 vmla.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000 170 vnmla.f64 d10, d1 [all...] |
/external/v8/src/arm/ |
H A D | assembler-arm.h | 222 "d10", 319 const DwVfpRegister d10 = { 10 }; member in namespace:v8::internal
|
H A D | lithium-arm.cc | 1338 FixedTemp(d10),
|
H A D | simulator-arm.h | 144 d8, d9, d10, d11, d12, d13, d14, d15, enumerator in enum:v8::internal::Simulator::Register
|
/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.s | 822 vld1.64 {d10},[r1]! @ handles unaligned 831 vrev64.8 d10,d10 847 vadd.i64 d27,d10 1538 vadd.i64 d27,d10
|
/external/llvm/test/MC/ARM/ |
H A D | neon-minmax-encoding.s | 6 vmax.u8 d10, d11, d12 38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3] 68 vmin.u8 d10, d11, d12 100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3]
|
H A D | neon-shift-encoding.s | 111 vsra.s32 d11, d10, #31 129 @ CHECK: vsra.s32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf2] 147 vsra.u32 d11, d10, #31 165 @ CHECK: vsra.u32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf3] 183 vsri.32 d11, d10, #31 201 @ CHECK: vsri.32 d11, d10, #31 @ encoding: [0x1a,0xb4,0xa1,0xf3] 219 vsli.32 d11, d10, #31 237 @ CHECK: vsli.32 d11, d10, #31 @ encoding: [0x1a,0xb5,0xbf,0xf3] 439 vrshl.u32 d17, d10 456 @ CHECK: vrshl.u32 d17, d17, d10 [all...] |
H A D | neon-shiftaccum-encoding.s | 6 vsra.s64 d11, d10, #64 24 vsra.s64 d10, #64 41 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x9a,0xb1,0x80,0xf2] 58 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x9a,0xa1,0x80,0xf2]
|
H A D | neon-vld-encoding.s | 162 vld3.i32 {d6, d8, d10}, [r5] 172 vld3.16 {d9, d10, d11}, [r7]! 184 @ CHECK: vld3.32 {d6, d8, d10}, [r5] @ encoding: [0x8f,0x65,0x25,0xf4] 192 @ CHECK: vld3.16 {d9, d10, d11}, [r7]! @ encoding: [0x4d,0x94,0x27,0xf4] 282 vld2.32 {d10[ ],d11[ ]}, [r3]! 298 @ CHECK: vld2.32 {d10[], d11[]}, [r3]! @ encoding: [0x8d,0xad,0xa3,0xf4] 308 vld3.i32 {d6[0], d8[0], d10[0]}, [r5] 317 vld3.16 {d9[2], d10[2], d11[2]}, [r7]! 326 @ CHECK: vld3.32 {d6[0], d8[0], d10[0]}, [r5] @ encoding: [0x4f,0x6a,0xa5,0xf4] 333 @ CHECK: vld3.16 {d9[2], d10[ [all...] |
H A D | neon-vst-encoding.s | 58 @ CHECK: vst2.32 {d8, d9, d10, d11}, [r0, :256]! @ encoding: [0xbd,0x83,0x00,0xf4] 66 vst3.i32 {d6, d8, d10}, [r5] 76 vst3.16 {d9, d10, d11}, [r7]! 87 @ CHECK: vst3.32 {d6, d8, d10}, [r5] @ encoding: [0x8f,0x65,0x05,0xf4] 95 @ CHECK: vst3.16 {d9, d10, d11}, [r7]! @ encoding: [0x4d,0x94,0x07,0xf4] 182 vst3.i32 {d6[1], d8[1], d10[1]}, [r5] 191 vst3.16 {d9[1], d10[1], d11[1]}, [r7]! 200 @ CHECK: vst3.32 {d6[1], d8[1], d10[1]}, [r5] @ encoding: [0xcf,0x6a,0x85,0xf4] 207 @ CHECK: vst3.16 {d9[1], d10[1], d11[1]}, [r7]! @ encoding: [0x4d,0x96,0x87,0xf4] 269 vst2.8 {d8, d10}, [r [all...] |
H A D | neont2-dup-encoding.s | 22 vdup.8 q3, d10[0] 28 vdup.8 q3, d10[1] 35 @ CHECK: vdup.8 q3, d10[0] @ encoding: [0xb1,0xff,0x4a,0x6c] 41 @ CHECK: vdup.8 q3, d10[1] @ encoding: [0xb3,0xff,0x4a,0x6c]
|
H A D | neont2-minmax-encoding.s | 8 vmax.u8 d10, d11, d12 40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6] 70 vmin.u8 d10, d11, d12 102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6]
|
H A D | neont2-mul-accum-encoding.s | 32 vmlal.s32 q0, d5, d10[0] 40 @ CHECK: vmlal.s32 q0, d5, d10[0] @ encoding: [0xa5,0xef,0x4a,0x02]
|
H A D | neont2-pairwise-encoding.s | 15 vpaddl.s8 d7, d10 28 @ CHECK: vpaddl.s8 d7, d10 @ encoding: [0xb0,0xff,0x0a,0x72] 69 vpmin.s8 d16, d29, d10 77 @ CHECK: vpmin.s8 d16, d29, d10 @ encoding: [0x4d,0xef,0x9a,0x0a]
|
H A D | neont2-shiftaccum-encoding.s | 8 vsra.s64 d11, d10, #64 26 vsra.s64 d10, #64 43 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x80,0xef,0x9a,0xb1] 60 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x80,0xef,0x9a,0xa1]
|
H A D | neont2-vst-encoding.s | 106 vst2.8 {d8, d10}, [r4] 107 @ CHECK: vst2.8 {d8, d10}, [r4] @ encoding: [0x04,0xf9,0x0f,0x89]
|
H A D | simple-fp-encoding.s | 287 @ CHECK: vpush {d8, d9, d10, d11, d12, d13, d14, d15} @ encoding: [0x10,0x8b,0x2d,0xed]
|
H A D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d1 [all...] |
/external/libvpx/vp8/common/arm/neon/ |
H A D | bilinearpredict16x16_neon.asm | 49 vld1.u8 {d8, d9, d10}, [r0], r1 83 vext.8 d9, d9, d10, #1 106 vld1.u8 {d8, d9, d10}, [r0], r1 132 vext.8 d9, d9, d10, #1 155 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 166 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 240 vld1.u8 {d8, d9, d10}, [r0], r1 268 vext.8 d9, d9, d10, #1
|
H A D | bilinearpredict4x4_neon.asm | 55 vzip.32 d10, d11 62 vmlal.u8 q8, d10, d1
|