
ניתוח טכני של DF ל BF5 RT:
לא ראיתי אבל אפשר להבין מהכותרת של הוידאו שהם עפים על זה.
erezronen כתב:סוג של!
omerkot כתב:erezronen כתב:סוג של!
זה בינארי. אתה חי!
נדב, אנחנו יכולים לחזור "להתקוטט"!![]()
אם דייס הצליחו להרים RT "סביר" על טייטן V, בלי שום קשר לפונקציות הRT ב2080 ואם AMD הולכת להתחיל למכור בקרוב דור חדש שמבוסס על ייצור ב7nm, שתיאורטית מאפשר לה לדחוס הרבה יותר לוגיקה על אותו שטח סיליקון (60% לפי מה שמצאתי באיזה מקור עלום, מה שאומר שעל שטח של Vega 64 היא צריכה להיות מסוגלת להוציא ביצועים קרובים לTitan V ועל שטח של 2080 להוציא עוד 50% מעבר) ואם גם ככה הפלטפורמה של AMD מורכבת מיותר ליבות פשוטות שמתאימות יותר לאופי החישוב של RT, מה זה אומר על האפשרות התיאורטית להרים RT הגיוני על כרטיסי המסך הבאים של AMD?
DrKeo כתב:הוא קבל 10,030. לשם השוואה ה-1080GTX קבל 7332, כלומר שיפור של 37% שזה מאוד גבוה באופן יחסי, לרוב מדובר בקפיצה של בערך 25%-30% בביצועים ולהתחשב בעובדה שיש את כל הליבות הלא מנוצלות כמו הליבות RT, הליבות INT והליבות טנצר, זה די מפוצץ את המוח.
DrKeo כתב:אני חושב שצריך לזכור שNVIDIA מתפקדת בשוק ללא תחרות, כלומר הם עושים מה שבא להם. סדרה 2000 היא פריק של הטבע והסיבה שהם יכולים לעשות פריק של הטבע היא שהם יודעים שאין לאף מתחרה כרטיס ב-500$ ומטה שמתחרה ב-2070RTX וכך הלאה בהתאמה עד ה2080TI. אם הייתה להם תחרות חריפה, תהיה בטוח שכל הסיליקון היה מוקדש לליבות CUDA קלאסיות כשאולי רק המקטע סיליקון החדש לליבות INT היה נכנס.
אגב, אני לא ממש מסכים עם הטיעון שהם עושים פאטצ' על פאטצ'. RT בזמן אמיתי זה גובל בבלתי אפשרי כיום ואפילו אם היינו יכולים לזרוק כמות קרניים די גדולה, עדין התמונה הייתה סופר מגורענת. אפילו כשהם זורקים חמש קרניים דרך כל פיקסל כמו בדמו מלחמת הכוכבים עדין התמונה מאוד מגורענת לפני העיבוד תמונה. כלומר זה לא ממש פאטצ' על פאטצ', זאת מגבלת כוח ופיתרון לאותה בעיה, לפחות עד היום שנוכל לזרוק עשרות קרניים פר פיקסל. והליבות AI לא מתבזבזות, הן נותנות AA מושלם "בחינם". כמובן שיכל להיות שם עוד סיליקון לליבות CUDA, אבל זקוקים להם בשביל לעשות RT וכשלא משתמשים ב-RT לפחות הן עדין בשימוש ל-AA.
swym כתב:אבל אני חושב שזו בדיוק הנקודה: התחרות של Nvidia היא כרגע מול הדור הקודם, כי אם אפשר למצוא כבר 1080 GTX ב450$ (ואפילו כרטיסי Vega 64 שגם יורדים לפעמים מ-500$), אז מחיר השקה של 600$ לכרטיס 2070RTX שהביצועים שלו הם באותו איזור זה די מופרך (ועד שהוא ירד ל-500$ כנראה שכרטיסי הדור הקודם של Nvidia ירדו במחיר אפילו עוד). כנ"ל ה-2080RTX שעולה בהשקה יותר וכנראה מקביל בביצועים ל-1080TI שהמחיר שלו מתחיל לצנוח.
swym כתב:אבל הכרטיסים האלו לא אמורים להתחרות בארכיטקטורה מלפני שנה-שנתיים אלא במה שיגיע בעתיד. אני לא רואה את AMD עושים שוב את הטעות של להשיק מאוחר לשוק ה-High End כמו שהם עשו בסיבוב הקודם (לפחות משיקולי תדמית), ואם השמועות על Vega 2 כבר השנה ב-7nm נכונות כנראה שהוא יהיה כרטיס יותר מסורתי מזה של Nvidia, עם הרבה מאד טרהפלופים ואולי אפילו צריכת חשמל שפויה. אבל הכרטיסים של NVidia ישארו יקרים בטירוף כי יש בהם הרבה מאד סיליקון מבוזבז על רייטרייסינג - ועם זה אין סיכוי שתהיה לנו פה מלחמת מחירים כמו בימים הטובים.
swym כתב:אגב, נראה לי שאתה עושה קצת סלט: שני החלקים שאתה קורא להם "ליבות AI" ו"ליבות INT"? זה סיים שיט. זה נחמד שאפשר לקבל מהן פיתרון AA מוצלח (שהוא בטח לא "מושלם", אלא מבוסס אינטרפולציה) אבל בתאוריה גם אותם היה ניתן להחליף בעוד ליבות CUDA על הצ'יפ, והסיבה שהכניסו אותן זה בדיוק הטלאי-על-טלאי שהזכרתי - נוידיה רצו קודם כל RT, אבל הפיתרון שלהם לא היה מספיק טוב בשביל RT בזמן אמת.
swym כתב:בדיוק בגלל זה הדמיון לאקסבוקס One, וה-ESRAM שמיקרוסופט הכניסו לשם (על חשבון סיליקון לביצועים גרפיים): הם רצו 8GB של זיכרון בשביל ישומי מערכת הפעלה מתוך הסתכלות על הקונסולה כמערכת מולטימדיה, הלכו בגלל זה על DDR3 שלא היה לו מספיק רוחב פס, ואז דחפו גם ESRAM כדי לצפות על בעיות רוחב הפס.
משתמשים הגולשים בפורום זה: אין משתמשים רשומים ו־ 9 אורחים