Приветствуем, геймер! Ты можешь или
16+

  • The_Riddler писал:
    [/quote:1292967]
    ... ты бы хоть "намекнул";
    полностью с вами согласен компьютер с хорошей видеокартой - суперкомпьютер, а с этой так вообще.


    Avatar

    Геймер ai1234567 5



  • Arjuno писал:
    ai1234567 писал:
    Продолжай.
    Да в принципе вот и всё, победа оказалась за мной, заклинание окончательно подтвердило моё предположение.
    Спасибо за дискуссию.
    Как все? слился тролль?
    На еще покушай:
    Вкусняшка...
    Печенька...
    Только не лопни!
    ЗЫ
    А может ты не тролль, а просто удовольствие получаешь каждый раз когда сливаешь?


    Avatar

    Геймер ai1234567 5



  • Arjuno писал:
    ai1234567 писал:
    а я вот напишу сюда продолжение вывода озвученного тобой тролль
    Всё указывает на то, что GeForce GTX 680 с новым графическим процессором GK104 займёт достойное место среди наших любимчиков. Однако, как и в случае с GeForce GTX 460, nVidia пожертвовала вычислительной мощностью в пользу игровой производительности. Но про это быстро забываешь, когда карта доказывает свою конкурентоспособность против флагманов AMD в играх. GK104 не пойдёт по стопам GF104. Вместо этого, новый GPU займёт место GF110, который ранее обеспечивал лидерство видеокарте GeForce GTX 580
    зы
    получи слив по всем пунктам, и звание тролль балабол.
    Ну и что? Всё равно она самая мощная, то, что её могли сделать ещё
    мощнее, это другой вопрос.
    Когда переходят на личности, обычно это свидетельствует о неуравновешенности оппонента в споре и отчаянии. Не переживай, я уверен, ты еще сможешь показать себя в дискуссии против менее искушенного соперника, считай что тебе не повезло в этот раз.
    Продолжай.


    Avatar

    Геймер ai1234567 5



  • Arjuno писал:
    ai1234567 писал:
    Arjuno писал:
    ai1234567 писал:
    Где там хоть что-то подтверждающее твое утверждение?
    Просил пример использования CUDA - я отправил, просил как я её использую, я опять отправил.
    ai1234567 писал:
    РАЗ
    Ссылка не работает, не зачет.
    ai1234567 писал:
    ДВА
    Источник? Не зачет.
    Счет 2 : 0 в мою пользу.
    ai1234567 писал:
    Зачем мне стараться, ты и сам справляешься, за свои собственные фразы ответить не можешь.
    Я ответил двумя источниками, ты не одним, вопрос стоит по другому, зачем мне стараться, если я ничего не получаю взамен, ни одного подтвержденного утверждения. Давай так, если я сейчас приведу 3й источник, тогда счёт становится 3 : 0, ты признаешь, что был не прав и извиняешься, идёт?
    ai1234567 писал:
    На счет 580:
    Логика тебя опять подвела (если она вообще у тебя есть?), или зрение, ты не обратил внимание что это было адресовано ТОЛЬКО ТЕБЕ (как поклоннику куды и нвидиа) кто у нас еще "серъезный исследователь" через твердый знак.
    Не стоит хвататься за досадную ошибку в слове как за соломинку, тем более когда сам путаешься в утверждениях. Сначала говоришь, что персональный суперкомпьютер с видеокартой - это бред, затем соглашаешься, приводя в пример 580, затем вообще переходишь к OpenCL и AMD, и "про картам", цену кстати не напомнишь таких карт?Кажется их цена выходит за рамки 18к.
    1. ссылка работает (поломалась только в ответе) я делаю вывод что ты их даже не смотришь, а это троллоло
    2. тебе дали сконцентрированный темный вывод с подробностями, зачем тебе источник все равно не ходишь не читаешь см. пункт 1 опять попахивает тролем.
    3. что такое куда я знаю и без тебя, конкретно твои задачи - спасибо сориентировал, но проблема не в том что куда есть и что она умеет, а именно в твоем комментарий к сабжу по поводу суперкомпьютера, точнее - цены к производительности . хотя изначально даже сама нвидиа на презентации скромно "отмалчивалась" о его способностях дав понять приоритетность игрового направления.
    4. Судя по твоим ответам, ты либо тролль либо действительно плохо ориентируешься в затронутой теме, в стандартах, картах, рынке.
    5. на счет придирок "серъезный исследователь" через твердый знак, ну разве не забавно у тебя это получилось на следующей строчке после троллинга моего русского, так что не обессудь.
    6. свеженький обзор...
    thq...

    В этот раз, во время презентации GeForce GTX 680, компания предпочла вообще не говорить о общих вычислениях, отшучиваясь, что она потратила слишком много сил на этот аспект в архитектуре Fermi и не хочет возвращаться к нему снова.
    Но, похоже, что компания действительно не хочет возвращаться к этому. Тест Sandra 2012 показал, что GeForce GTX 680 тянутся за картами серии Radeon HD 7900 в 32-битных вычислениях. И она просто раздавлена в 64-битных операциях с плавающей запятой, поскольку nVidia намеренно сдерживает производительность, чтобы защитить профессиональные видеокарты для бизнес решений. (про карты) ...
    7. anandtech...

    As always our final set of benchmarks is a look at compute performance. As we mentioned in our discussion on the Kepler architecture, GK104’s improvements seem to be compute neutral at best, and harmful to compute performance at worst. NVIDIA has made it clear that they are focusing first and foremost on gaming performance with GTX 680, and in the process are deemphasizing compute performance. Why? Let’s take a look....
    ответ страница 17...
    Я серьезно, погугли
    Отлично! Наконец-то ссылки. Однако спешу тебя огорчить, вырванные из текста фразы тебе не помогут. Ведь в заключении написано...
    "GeForce GTX 680 сегодня является самой быстрой видеокартой с одним GPU и с этим не поспоришь." и прочие восхваления. Не хочется захламлять комментарий обширным текстом, скину твою же ссылку, но уже на конечный, итоговый вывод (страница 8), без вырывания из текста фраз.
    Не знаю, что ты хотел доказать этой ссылкой, но доказал, что вычислительная мощность этой карты находится на высшем уровне среди домашних карт, т.е. по сути убедил людей, которые прежде всего ценят высокую производительность при расчётах с использование GPGPU, ради этого купить карту.
    О чём я и говорил в самом начале, вам нужен домашний суперкомпьютер? Вот он.
    а я вот напишу сюда продолжение вывода озвученного тобой тролль
    Всё указывает на то, что GeForce GTX 680 с новым графическим процессором GK104 займёт достойное место среди наших любимчиков. Однако, как и в случае с GeForce GTX 460, nVidia пожертвовала вычислительной мощностью в пользу игровой производительности. Но про это быстро забываешь, когда карта доказывает свою конкурентоспособность против флагманов AMD в играх. GK104 не пойдёт по стопам GF104. Вместо этого, новый GPU займёт место GF110, который ранее обеспечивал лидерство видеокарте GeForce GTX 580
    зы
    получи слив по всем пунктам, и звание тролль балабол.


    Avatar

    Геймер ai1234567 5



  • Arjuno писал:
    ai1234567 писал:
    Где там хоть что-то подтверждающее твое утверждение?
    Просил пример использования CUDA - я отправил, просил как я её использую, я опять отправил.
    ai1234567 писал:
    РАЗ
    Ссылка не работает, не зачет.
    ai1234567 писал:
    ДВА
    Источник? Не зачет.
    Счет 2 : 0 в мою пользу.
    ai1234567 писал:
    Зачем мне стараться, ты и сам справляешься, за свои собственные фразы ответить не можешь.
    Я ответил двумя источниками, ты не одним, вопрос стоит по другому, зачем мне стараться, если я ничего не получаю взамен, ни одного подтвержденного утверждения. Давай так, если я сейчас приведу 3й источник, тогда счёт становится 3 : 0, ты признаешь, что был не прав и извиняешься, идёт?
    ai1234567 писал:
    На счет 580:
    Логика тебя опять подвела (если она вообще у тебя есть?), или зрение, ты не обратил внимание что это было адресовано ТОЛЬКО ТЕБЕ (как поклоннику куды и нвидиа) кто у нас еще "серъезный исследователь" через твердый знак.
    Не стоит хвататься за досадную ошибку в слове как за соломинку, тем более когда сам путаешься в утверждениях. Сначала говоришь, что персональный суперкомпьютер с видеокартой - это бред, затем соглашаешься, приводя в пример 580, затем вообще переходишь к OpenCL и AMD, и "про картам", цену кстати не напомнишь таких карт?Кажется их цена выходит за рамки 18к.
    1. ссылка работает (поломалась только в ответе) я делаю вывод что ты их даже не смотришь, а это троллоло
    2. тебе дали сконцентрированный темный вывод с подробностями, зачем тебе источник все равно не ходишь не читаешь см. пункт 1 опять попахивает тролем.
    3. что такое куда я знаю и без тебя, конкретно твои задачи - спасибо сориентировал, но проблема не в том что куда есть и что она умеет, а именно в твоем комментарий к сабжу по поводу суперкомпьютера, точнее - цены к производительности . хотя изначально даже сама нвидиа на презентации скромно "отмалчивалась" о его способностях дав понять приоритетность игрового направления.
    4. Судя по твоим ответам, ты либо тролль либо действительно плохо ориентируешься в затронутой теме, в стандартах, картах, рынке.
    5. на счет придирок "серъезный исследователь" через твердый знак, ну разве не забавно у тебя это получилось на следующей строчке после троллинга моего русского, так что не обессудь.
    6. свеженький обзор...
    thq...

    В этот раз, во время презентации GeForce GTX 680, компания предпочла вообще не говорить о общих вычислениях, отшучиваясь, что она потратила слишком много сил на этот аспект в архитектуре Fermi и не хочет возвращаться к нему снова.
    Но, похоже, что компания действительно не хочет возвращаться к этому. Тест Sandra 2012 показал, что GeForce GTX 680 тянутся за картами серии Radeon HD 7900 в 32-битных вычислениях. И она просто раздавлена в 64-битных операциях с плавающей запятой, поскольку nVidia намеренно сдерживает производительность, чтобы защитить профессиональные видеокарты для бизнес решений. (про карты) ...
    7. anandtech...

    As always our final set of benchmarks is a look at compute performance. As we mentioned in our discussion on the Kepler architecture, GK104’s improvements seem to be compute neutral at best, and harmful to compute performance at worst. NVIDIA has made it clear that they are focusing first and foremost on gaming performance with GTX 680, and in the process are deemphasizing compute performance. Why? Let’s take a look....
    ответ страница 17...
    Я серьезно, погугли


    Avatar

    Геймер ai1234567 5



  • Arjuno писал:
    ai1234567 писал:
    ГДЕ ОНИ?
    Эм, ты уже забыл?
    Arjuno писал:
    ai1234567 писал:
    О как ... по твоему физикс и куда ни как не связанны, и фиг с тем что одно работает через другое, Ну ну... просвети лучше что такое ты делаешь с кудой, наверно всем захочется.
    ЗЫ
    Неужто многопроходный кодинг видео уже можно?
    Пожалуйста - Примеры внедрения CUDA - отдельная статья для ленивых. Твой Physx - как раз в конце, как видишь он лишь часть огромного айсберга использования CUDA. Замечу что статья всего лишь 2008 года, сейчас использование CUDA возросло в десятки раз.
    Лично я занимаюсь чем то вроде этого, только вместо космических тел и гравитационного взаимодействия - молекулы и межмолекулярное взаимодействие.
    Две ссылки, от тебя - 0.
    Счет прежний 2:0 в мою пользу.
    Где там хоть что-то подтверждающее твое утверждение?
    Гы ... считать все же не умеешь. стыдоба!
    РАЗ
    ai1234567 писал:
    Какая именно суть тебе не нравиться не понятна?
    То что физикс "порезали" (читай тесты от например..., посмотри на строчку Physx)
    ДВА
    ai1234567 писал:
    GK104 is Nvidia's finest gaming chip since G80 back in 2006. The key word here is 'gaming'. GK104 has been stripped down, the compute cache structure is gone, FP64 has been scaled back massively, a narrower memory bus, fewer PolyMorph engines and fewer ROPs among other compromises. The net result is Nvidia has finally not just closed in the huge gap to AMD on gaming efficiency (in every way - from performance per die area to performance per Watt) but in fact edged out AMD for the first time in over 5 generations. At what cost? Compute performance is very erratic............
    Троллоло.
    Arjuno писал:
    ai1234567 писал:
    Дешевле 18000 - пожалуйста (по твоему-же "здравому смыслу")
    Arjuno писал:
    Зачем менять чип если можно поменять дрова?
    nvidia.ru - дрова бесплатные!
    ЗЫ
    Остальным "серъезным исследователям" дешевле и быстрее будет: из игровых - 580.
    Тесты, тесты где же они... ты конечно тут очень пытаешься и всё такое, но где всё таки мои тесты? Докажи, что быстрее.
    Т.е. ты признал, что компьютер с видеокартой с CUDA является суперкомпьютером и привёл в качестве суперкомпьютера... другую видеокарту подешевле? Стой стой... разве не ты пару комментариев назад писал, что это бред? Как забавно :)
    Зачем мне стараться, ты и сам справляешься, за свои собственные фразы ответить не можешь.
    gpgpu возможностями я пользуюсь ,не соврать, года с 2006.
    На счет 580:
    Логика тебя опять подвела (если она вообще у тебя есть?), или зрение, ты не обратил внимание что это было адресовано ТОЛЬКО ТЕБЕ (как поклоннику куды и нвидиа) кто у нас еще "серъезный исследователь" через твердый знак.
    Кто-то выбирает opencl в силу кроссплатформенности, соответственно, выбор карт расширяется и здесь уже можно рассмотреть AMD 79хх, многие задачи требуют применения про карт... и т.д. но для gamer.ru это абсолютно бесполезная информация.


    Avatar

    Геймер ai1234567 5



  • Arjuno писал:
    ai1234567 писал:
    Arjuno писал:
    ai1234567 писал:
    В выводе выше оперируют тех данными с целью объяснить сливы сабжа в тестах, то что дрова оптимизируют - скорее всего, а вот сам чип уже не изменить - и это "железный аргумент" подтверждающий твою некомпетентность, но, ты опять тупо троллишь.
    В чем некомпетентность? Зачем менять чип если можно поменять дрова?
    Действительно, пойду скачаю новые дровишки и будет у меня 680.
    Троллить продолжаешь, по существу сливаешь!
    Arjuno писал:
    ai1234567 писал:
    Еще раз, тесты гугли сам, в силу того что ты: то читать не умеешь, то это тебя не интересует, здесь ты не в теме и т.д. тесты есть но интересующие и главное устраивающие тебя - найди сам.
    Зачем мне их гуглить, ты сказал что по тестам слив идёт, ты и докажи, сказал А, говори Б, я свою позицию доказал ссылками и источниками, от тебя я такого не вижу.
    Твоя позиция, кстати, в чем заключается, ну кроме троллоло? Не в:
    Огорчу тебя, не троллить я не люблю, как и не люблю вообще это слово и действие. Назвать оппонента троллем - конечно лучший выход, когда кончаются аргументы, но не в этом случае.
    Моя позиция заключалась в том, что CUDA нынче очень востребованная технология.
    ai1234567 писал:
    Arjuno писал:
    Поддерживаю насчёт CUDA, по сути при покупке вы получите самый дешевый суперкомпьютер в мире.
    И где ссылки с доказательствами ценой и производительностью???? Твой бред еще не удалили, покажи или слейся, балабол!
    Эм, наверно здравый смысл? Если найдешь суперкомпьютер, с производительностью выше 3000 GFlops (производительность этой видеокарты) и дешевле 18000 тысяч рублей, то ты победил.
    Откровенно сливаешь.
    Если ты не троль, то это что:
    Arjuno писал:
    я свою позицию доказал ссылками и источниками, ......
    ГДЕ ОНИ?
    Дешевле 18000 - пожалуйста (по твоему-же "здравому смыслу")
    Arjuno писал:
    Зачем менять чип если можно поменять дрова?
    nvidia.ru - дрова бесплатные!
    ЗЫ
    Остальным "серъезным исследователям" дешевле и быстрее будет: из игровых - 580.


    Avatar

    Геймер ai1234567 5



  • Arjuno писал:
    ai1234567 писал:
    В выводе выше оперируют тех данными с целью объяснить сливы сабжа в тестах, то что дрова оптимизируют - скорее всего, а вот сам чип уже не изменить - и это "железный аргумент" подтверждающий твою некомпетентность, но, ты опять тупо троллишь.
    В чем некомпетентность? Зачем менять чип если можно поменять дрова?
    Действительно, пойду скачаю новые дровишки и будет у меня 680.
    Троллить продолжаешь, по существу сливаешь!
    Arjuno писал:
    ai1234567 писал:
    Еще раз, тесты гугли сам, в силу того что ты: то читать не умеешь, то это тебя не интересует, здесь ты не в теме и т.д. тесты есть но интересующие и главное устраивающие тебя - найди сам.
    Зачем мне их гуглить, ты сказал что по тестам слив идёт, ты и докажи, сказал А, говори Б, я свою позицию доказал ссылками и источниками, от тебя я такого не вижу.
    Твоя позиция, кстати, в чем заключается, ну кроме троллоло? Не в:
    Arjuno писал:
    Поддерживаю насчёт CUDA, по сути при покупке вы получите самый дешевый суперкомпьютер в мире.
    И где ссылки с доказательствами ценой и производительностью???? Твой бред еще не удалили, покажи или слейся, балабол!


    Avatar

    Геймер ai1234567 5



  • Arjuno писал:
    ai1234567 писал:
    Странные рассуждения? Они, в отличии от твоих основаны не на наглости, а на конкретных тех данных сабжа.
    Тех данных? Так тестов всё таки не было? Лучше бы ты этого не говорил, теоретики теперь будут указывать что работает быстрее, а что нет. И где источник и скрины тестов всё таки? Или я должен на слово поверить, человеку, который выражается - My guess в самом спорном моменте?
    Где я так выражаюсь?
    В выводе выше оперируют тех данными с целью объяснить сливы сабжа в тестах, то что дрова оптимизируют - скорее всего, а вот сам чип уже не изменить - и это "железный аргумент" подтверждающий твою некомпетентность, но, ты опять тупо троллишь.
    Еще раз, тесты гугли сам, в силу того что ты: то читать не умеешь, то это тебя не интересует, здесь ты не в теме и т.д. тесты есть но интересующие и главное устраивающие тебя - найди сам.


    Avatar

    Геймер ai1234567 5



  • Для тех кому лень переводить, в двух словах: в сабже упростили куда ядра, ужали шину и ... в итоге он кое где сливает даже мидлу (560) прошлого поколения, но в более простых задачах превосходит 580, за счет увеличенного числа этих ядер.
    Имхо, тому несколько причин:
    1. конкурент постарался (7970), оставь нвидиа прежнюю архитектуру - получилась бы "супер" печь, а так, здесь порезали там добавили для игр подходит отлично, "корону" с amd сняли.
    2. Решили увеличить разницу (не только в цене, и дровах), между игровыми и про картами (Quadro), продукт геймерский, а для про задач - про карты.
    3. Движение рынка в сторону op


    Avatar

    Геймер ai1234567 5


Чат