Lines Matching defs:mem

209     void  tlfree(void* mem) { mspace_free(tlms, mem); }
1334 DLMALLOC_EXPORT void mspace_free(mspace msp, void* mem);
1345 DLMALLOC_EXPORT void* mspace_realloc(mspace msp, void* mem, size_t newsize);
1397 DLMALLOC_EXPORT size_t mspace_usable_size(const void* mem);
2076 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2089 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2098 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2111 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2126 Chunks always begin on even word boundaries, so the mem portion
2219 #define mem2chunk(mem) ((mchunkptr)((char*)(mem) - TWO_SIZE_T_SIZES))
2315 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2336 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2813 static void do_check_malloced_chunk(mstate m, void* mem, size_t s);
3301 static void do_check_malloced_chunk(mstate m, void* mem, size_t s) {
3302 if (mem != 0) {
3303 mchunkptr p = mem2chunk(mem);
3816 #define internal_free(m, mem) mspace_free(m,mem);
3821 #define internal_free(m, mem)\
3822 if (m == gm) dlfree(mem); else mspace_free(m,mem);
3825 #define internal_free(m, mem) dlfree(mem)
4061 void* mem = mmap_alloc(m, nb);
4062 if (mem != 0)
4063 return mem;
4131 /* Use mem here only if it did continuously extend old space */
4595 void* mem;
4612 mem = chunk2mem(p);
4613 check_malloced_chunk(gm, mem, nb);
4639 mem = chunk2mem(p);
4640 check_malloced_chunk(gm, mem, nb);
4644 else if (gm->treemap != 0 && (mem = tmalloc_small(gm, nb)) != 0) {
4645 check_malloced_chunk(gm, mem, nb);
4654 if (gm->treemap != 0 && (mem = tmalloc_large(gm, nb)) != 0) {
4655 check_malloced_chunk(gm, mem, nb);
4675 mem = chunk2mem(p);
4676 check_malloced_chunk(gm, mem, nb);
4686 mem = chunk2mem(p);
4688 check_malloced_chunk(gm, mem, nb);
4692 mem = sys_alloc(gm, nb);
4696 return mem;
4704 void dlfree(void* mem) {
4711 if (mem != 0) {
4712 mchunkptr p = mem2chunk(mem);
4814 void* mem;
4822 mem = dlmalloc(req);
4823 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
4824 memset(mem, 0, req);
4825 return mem;
4913 void* mem = 0;
4929 mem = internal_malloc(m, req);
4930 if (mem != 0) {
4931 mchunkptr p = mem2chunk(mem);
4934 if ((((size_t)(mem)) & (alignment - 1)) != 0) { /* misaligned */
4943 char* br = (char*)mem2chunk((size_t)(((size_t)((char*)mem + alignment -
4976 mem = chunk2mem(p);
4978 assert(((size_t)mem & (alignment - 1)) == 0);
4983 return mem;
5002 void* mem; /* malloced aggregate space */
5048 mem = internal_malloc(m, size - CHUNK_OVERHEAD);
5051 if (mem == 0)
5055 p = mem2chunk(mem);
5061 memset((size_t*)mem, 0, remainder_size - SIZE_T_SIZE - array_size);
5125 void* mem = *a;
5126 if (mem != 0) {
5127 mchunkptr p = mem2chunk(mem);
5208 void* mem = 0;
5210 mem = dlmalloc(bytes);
5237 mem = chunk2mem(newp);
5240 mem = internal_malloc(m, bytes);
5241 if (mem != 0) {
5243 memcpy(mem, oldmem, (oc < bytes)? oc : bytes);
5249 return mem;
5253 void* mem = 0;
5275 mem = oldmem;
5280 return mem;
5291 void* mem = 0;
5293 mem = dlmalloc(bytes);
5302 mem = internal_memalign(gm, alignment, bytes);
5305 if (mem == 0)
5308 *pp = mem;
5407 size_t dlmalloc_usable_size(const void* mem) {
5409 if (mem != 0) {
5410 mchunkptr p = mem2chunk(mem);
5531 void* mem;
5548 mem = chunk2mem(p);
5549 check_malloced_chunk(ms, mem, nb);
5575 mem = chunk2mem(p);
5576 check_malloced_chunk(ms, mem, nb);
5580 else if (ms->treemap != 0 && (mem = tmalloc_small(ms, nb)) != 0) {
5581 check_malloced_chunk(ms, mem, nb);
5590 if (ms->treemap != 0 && (mem = tmalloc_large(ms, nb)) != 0) {
5591 check_malloced_chunk(ms, mem, nb);
5611 mem = chunk2mem(p);
5612 check_malloced_chunk(ms, mem, nb);
5622 mem = chunk2mem(p);
5624 check_malloced_chunk(ms, mem, nb);
5628 mem = sys_alloc(ms, nb);
5632 return mem;
5638 void mspace_free(mspace msp, void* mem) {
5639 if (mem != 0) {
5640 mchunkptr p = mem2chunk(mem);
5740 void* mem;
5753 mem = internal_malloc(ms, req);
5754 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
5755 memset(mem, 0, req);
5756 return mem;
5760 void* mem = 0;
5762 mem = mspace_malloc(msp, bytes);
5789 mem = chunk2mem(newp);
5792 mem = mspace_malloc(m, bytes);
5793 if (mem != 0) {
5795 memcpy(mem, oldmem, (oc < bytes)? oc : bytes);
5801 return mem;
5805 void* mem = 0;
5828 mem = oldmem;
5833 return mem;
5984 size_t mspace_usable_size(const void* mem) {
5985 if (mem != 0) {
5986 mchunkptr p = mem2chunk(mem);