ปรกติแล้ว MySQL สามารถรับ database ได้ขนาดเท่าไหร่ครับ

เริ่มโดย meomeo, 27 กันยายน 2007, 01:15:33

หัวข้อก่อนหน้า - หัวข้อถัดไป

0 สมาชิก และ 1 ผู้มาเยือน กำลังดูหัวข้อนี้

meomeo

ตอนนี้ผมใช้ mysql เก็บ RSS Feed อยู่
Feed ก็มีเพิ่ม ขึ้นทุกวัน
database ก้ใหญ่ขึ้นทุกวัน
ตอนนี้ 400 M
ตามปรกติแล้ว mysql นี้สามามรถใช้กับ database ได้ใหญ่ขนาดไหนครับ
เป็น GB ได้ไหมครับ

tdelphi


amaudy


ครับ อย่างที่พี่ tdelphi บอกว่าสบายมาก
แต่ก็ให้ระวังเรื่องการ select แล้วมีเงื่อนไข where
ถ้าออกแบบตารางไม่ดี มีสิทธิ์โดนเด้งจากโฮสต์แน่

ถ้าอยากแน่ใจ ถามฝ่ายซับพอร์ตของโฮสต์ที้ใช้อยู่นะครับ ของผมเคยเมลล์ถามว่าซัก 3 กิ้ก รับไหวมั๊ย
เค้าตอบมาว่าสบาย ถ้ามันมีปัญหา เรา(แอดมินของโฮสต์)จะเตือนคุณเอง
แต่ผมก็รัยแค่ 1 กิ๊กกว่าๆเอง

ryanKung

ไฟล์ นึงไม่ควรเกิน 4G แยกกันนะคับ  data กับ index ได้อย่างละ 4G
ถ้าเกินกว่านี้ มีโอกาสเจ๊งมากๆ  ::)
ส่วนมากขนาดของ index จะแซง data

EThaiZone

อ้างถึงจาก: ryanKung ใน 27 กันยายน 2007, 03:30:10
ไฟล์ นึงไม่ควรเกิน 4G แยกกันนะคับ  data กับ index ได้อย่างละ 4G
ถ้าเกินกว่านี้ มีโอกาสเจ๊งมากๆ  ::)
ส่วนมากขนาดของ index จะแซง data

ขนาดอินเด็กขึ้นอยู่กับจำนวนแถวด้วย ใช่ปะครับ

แล้วปกติ Mysql น่าจะรับได้ราวๆ กี่เรคคอร์ทต่อตาราง อะครับ  ???

ryanKung

อ้างถึงจาก: EThaiZone ใน 27 กันยายน 2007, 14:29:39
อ้างถึงจาก: ryanKung ใน 27 กันยายน 2007, 03:30:10
ไฟล์ นึงไม่ควรเกิน 4G แยกกันนะคับ  data กับ index ได้อย่างละ 4G
ถ้าเกินกว่านี้ มีโอกาสเจ๊งมากๆ  ::)
ส่วนมากขนาดของ index จะแซง data

ขนาดอินเด็กขึ้นอยู่กับจำนวนแถวด้วย ใช่ปะครับ
จำนวนแถวกับ ขนาดของแต่ละแถวด้วย

แล้วปกติ Mysql น่าจะรับได้ราวๆ กี่เรคคอร์ทต่อตาราง อะครับ  ???
ขึ้นอยู่กับ ขนาดของ เรคคอร์ท ถ้าน้อยก็ได้เยอะ
10 ล้าน  เรคคอร์ท ก็ยังรับได้อยู่นะ ขนาดของ sms นะ ไม่ยาวมาก
แต่อันนั้นเน้นเก็บ ถ้า query ที มันจะ lock table กันแทบไม่ต้องทำอะไร

ถ้าขนาดของ  เรคคอร์ท ใหญ่มาก ก็จะได้จำนวนแถวน้อย



อันนี้ยังได้แค่ 5 แสนกว่า เรคคอร์ท
ขนาดของ index ไปแล้ว 4G data ยังแค่ 2.2G


gAAp

อยากทราบว่า มีวิธีไหน ที่จะจัดการกับ ฐานข้อมูล ขนาดใหญ่ ๆ  1-2G  ได้โดยไม่เกิด timeout ครับ
เพราะเท่าที่เจออยู่ตอนนี้ เวลา query ที หรือแก้ไขฐานข้อมูล ขนาด 4 แสน record จะตายกลางทาง ตลอดเลยครับ

ryanKung

อ้างถึงจาก: gAAp ใน 27 กันยายน 2007, 17:50:37
อยากทราบว่า มีวิธีไหน ที่จะจัดการกับ ฐานข้อมูล ขนาดใหญ่ ๆ  1-2G  ได้โดยไม่เกิด timeout ครับ
เพราะเท่าที่เจออยู่ตอนนี้ เวลา query ที หรือแก้ไขฐานข้อมูล ขนาด 4 แสน record จะตายกลางทาง ตลอดเลยครับ
ต้อง monitor ว่า query ไหนช้า แล้วก็ทำ index ไว้หรือป่าว
ตรวจสอบ query ไม่จำเป็นออก แล้วรวม query

บางทีการ design db แบบเก็บข้อมูลซ้ำซ้อน ก็ดีกว่าแยกๆ แล้ว join กันนะคับ
เพราะมันจะลดจำนวน query เหมาะสำหรับ query เยอะๆ


kppwed

เข้ามาอ่านด้วยครับบบ...
กำลังใช้อยู่ด้วย  :)

gootum

น่าจะ 9 แสนแรคคอด รึว่า 9 ล้านแรคคอดนี่แหล่ะครับ ถ้าจำไม่ผิด

ColdMoney

อยากจะบอกว่า จะทำเว็บปั่นอย่าใช้ mysql เก็บ content เน้อ  :D :D

แต่ถ้าใช้ไฟล์เก็บก็ไปเก็บบน vps ดีก่านะครับ เพราะ inodes สามารถเพิ่มได้ครับ 10 ล้าน ชิวๆ  ;D ;D


[direct=https://www.jumnong.com]รับจำนอง[/direct] [direct=https://burapasup.com]รับซื้อบ้าน[/direct] [direct=https://kadsan.com]สินค้าราคาถูก[/direct] [direct=https://checkcheap.com]เปรียบเทียบราคา[/direct]